You are on page 1of 149

1

Résumé
Mots clés : assurance non vie, modèle linéaire généralisé, temps opérationnel, risque de
provisionnement, surinflation.
Le développement d’un modèle interne et la mise en œuvre de l’ORSA conduisent de plus
en plus d’assureurs à effectuer un calcul stochastique de leurs provisions.
L’objet de ce mémoire est de présenter un modèle stochastique de provisionnement construit
dans le cadre des modèles linéaires généralisés. On peut déduire du modèle l’évaluation de la
meilleure estimation des provisions Best Estimate ou celle du besoin en capital au titre du
risque de provisionnement.
Dans le calcul des provisions, nous montrons à partir de données en dommages corporels
automobile, que le modèle étudié peut constituer une alternative aux méthodes par facteurs si
les données ne respectent pas les hypothèses qui les sous tendent. En particulier, la structure
souple du modèle permet de modéliser certains facteurs à l’origine des perturbations dans les
cadences de paiements. Cela inclue l’instabilité des cadences de règlements ou la surinflation,
deux phénomènes caractéristiques des branches à écoulement long.
Dans le calcul du risque de provisionnement, nous privilégions une approche simulatoire
dans un cadre Bootstrap. Nous présentons tout d’abord une version du Bootstrap adaptée au
modèle, puis la modifions avec une vision sur un horizon d’un an. Le calcul du risque de
provisionnement est également effectué par application de la formule standard du QIS4 pour
comparaison.
2

Abstract
Key words : non-life insurance, generalized linear models, operational time, risk
provisioning, superimposed inflation.
The development of an internal model and the implementation of the ORSA lead more and
more insurers to do a stochastic calculus of their reserves.
The purpose of this paper is to present a stochastic model of provisioning built into the
framework of generalized linear models. One can infer from the model assessing the best
estimate of reserves or the required capital under the risk provisioning.
In the calculation of reserves, we show from data of Auto Bodily Injury Insurance, the
model can be considered an alternative to the methods by factors if the data fail to meet the
assumptions that underlie them. In particular, the flexible structure model is used to model
some factors causing disturbances in the rates of payments. This includes the volatility of rates
of settlements or superimposed inflation, two characteristic phenomena of long branches.
In computing the risk provisioning, we favour a simulation approach. We adapt the classical
version of the Bootstrap to the model and modify it with a vision on a one-year horizon. The
calculation of risk provisioning is done by applying the standard formula of QIS4 for
comparison.

3

Remerciements

Je souhaitais ici remercier les personnes qui ont contribué directement ou non à la réalisation
de ce mémoire :
Un grand merci à Stéphanie, ma femme, pour m’avoir supporté dans cette démarche.
Merci à Vincent Dupriez pour sa relecture et ses conseils expérimentés.
Merci enfin à tous mes professeurs du CNAM qui ont su par leur enseignement me
persuader que l’actuariat est une matière riche et passionnante.
4

Sommaire
INTRODUCTION...................................................................................................................... 7
PARTIE I. SOLVABILITE II : PRINCIPES DE CALCUL DU BEST ESTIMATE ET
DU RISQUE DE PROVISION.................................................................................................. 8
Chapitre I. Le best estimate des provisions pour sinistres ...............................................................9
I. Le périmètre de calcul............................................................................................................................. 9
II. Les principes d’évaluation ...................................................................................................................... 9
II.1 Aspects méthodologiques.............................................................................................................. 9
II.2 Aspects calculatoires ................................................................................................................... 11
II.2.1 Les préconisations du Groupe Consultatif .............................................................................. 11
II.2.2 Les préconisations de l’ACAM.............................................................................................. 11
III. L’expression de la provision pour sinistres ...................................................................................... 12
Chapitre II. le Risque de provisionnement ......................................................................................14
I. Les fondements du risque ..................................................................................................................... 14
I.1 L’incertitude des PSAP : une analyse par risques ............................................................................ 14
I.2 De l’incertitude des PSAP au risque de provisionnement ................................................................ 15
I.2.1 L’exposition des branches à déroulement long....................................................................... 15
I.2.2 Le cas des dommages corporels en automobile ...................................................................... 16
II. Le risque de provisionnement de Solvabilité II .................................................................................... 17
II.1 La définition du risque................................................................................................................. 17
II.2 L’identification de la variable d’intérêt ....................................................................................... 18
II.3 Risque à un an contre risque ultime............................................................................................. 19
III. Mesures de risques ........................................................................................................................... 20
III.1 L’indicateur du MSE : une mesure du risque à l’ultime.............................................................. 20
III.2 La mesure du risque à un an........................................................................................................ 21
III.2.1 Solvabilité II : La mesure par la VaR................................................................................. 21
III.2.2 Méthodes approchées......................................................................................................... 23
PARTIE II. LA SELECTION DU MODELE ................................................................ 25
Chapitre I. etude des données ...........................................................................................................26
I. L’exposé du problème........................................................................................................................... 26
I.1 Limites de l’usage des méthodes par facteurs .................................................................................. 26
I.2 Quelques méthodes alternatives ....................................................................................................... 27
I.3 Le cas des données étudiées ............................................................................................................. 28
II. La discussion sur les données ............................................................................................................... 29
II.1 La description des données.......................................................................................................... 29
II.1.1 Les données utilisées .............................................................................................................. 29
II.1.2 L’estimation du nombre de sinistres survenus restant à déclarer............................................ 29
II.2 L’application de la méthode Chain Ladder ................................................................................. 31
II.2.1 L’étude préalable des rapports historiques de développement................................................ 31
II.2.2 La sensibilité de la provision pour sinistres............................................................................ 32
II.3 De l’inadéquation des méthodes par facteurs .............................................................................. 33
II.3.1 L’instabilité de la cadence des règlements.............................................................................. 33
II.3.2 La liaison entre volume des prestations et nombre de règlements.......................................... 34
II.3.3 Les coefficients de passage et le temps opérationnel.......................................................... 35
III. L’approche par les coûts moyens ..................................................................................................... 36
III.1 Les coûts moyens et le temps opérationnel ................................................................................. 36
III.2 La stationnarité des coûts moyens............................................................................................... 39
III.3 La partition du temps opérationnel .............................................................................................. 40
III.4 Le lien moyenne - variance ......................................................................................................... 42
IV. Les conséquences sur le choix du modèle........................................................................................ 43
Chapitre II. la modelisation des couts moyens ................................................................................44
I. La modélisation par les Moindres Carrés Ordinaires............................................................................ 44
I.1 Le modèle de régression................................................................................................................... 44
I.2 Les tendances élémentaires .............................................................................................................. 45
I.3 Le terme stochastique....................................................................................................................... 46
5

II. La modélisation par les Modèles Linéaires Généralisés ....................................................................... 47
II.1 GLM contre MCO....................................................................................................................... 47
II.2 Introduction aux GLM................................................................................................................. 48
II.2.1 La famille des distributions exponentielles............................................................................. 48
II.2.2 L’estimation des paramètres ................................................................................................... 50
II.2.3 La déviance ............................................................................................................................ 52
II.2.4 Les résidus ............................................................................................................................. 53
II.3 Les hypothèses du modèle GLM................................................................................................. 54
II.3.1 Le choix de la distribution des résidus.................................................................................... 54
II.3.2 La fonction de lien.................................................................................................................. 57
Chapitre III. la specification du modele...........................................................................................58
I. La capture des tendances....................................................................................................................... 58
I.1 Le rappel du principe de parcimonie................................................................................................ 58
I.2 Le modèle de séparation................................................................................................................... 58
I.3 La recherche des tendances du triangle ............................................................................................ 59
II. La modélisation des tendances.............................................................................................................. 62
II.1 Le temps opérationnel ................................................................................................................. 62
II.2 La surinflation ............................................................................................................................. 64
II.3 L’interaction entre le temps opérationnel et la surinflation......................................................... 66
III. La modélisation des paiements partiels............................................................................................ 69
III.1 L’exposé du problème ................................................................................................................. 69
III.2 L’approche de Wright.................................................................................................................. 70
III.3 L’application numérique ............................................................................................................. 71
IV. La sélection du modèle final ............................................................................................................ 74
Chapitre IV. validation du modele par des tests statistiques .........................................................76
I. Les points de validation ........................................................................................................................ 76
II. Les tests sur la spécification du modèle................................................................................................ 76
III. Le test de robustesse......................................................................................................................... 79
IV. Le test sur la validité de la déviance................................................................................................. 81
V. Conclusion : la validation du modèle.................................................................................................... 82
PARTIE III. LA MISE EN ŒUVRE DES CALCULS ................................................... 84
Chapitre I. le calcul du best estimate des pSAP..............................................................................85
I. Hypothèses et méthode ......................................................................................................................... 85
I.1 Hypothèses ....................................................................................................................................... 85
I.2 Les étapes de calcul.......................................................................................................................... 86
II. La projection en monnaie constante des prestations futures ................................................................. 88
II.1 La modélisation des prestations................................................................................................... 88
II.2 L’application numérique ............................................................................................................. 90
III. L’inflation future.............................................................................................................................. 92
III.1 Le modèle d’inflation .................................................................................................................. 92
III.2 Le calibrage des paramètres ........................................................................................................ 94
III.3 La validation du modèle par back testing.................................................................................... 96
III.4 La modélisation de l’inflation dans les prestations futures.......................................................... 99
IV. L’évaluation du Best Estimate des PSAP....................................................................................... 100
Chapitre II. le calcul du risque de provisionnement.....................................................................103
I. L’exposé du problème......................................................................................................................... 103
II. Le calcul du risque à l’ultime.............................................................................................................. 104
II.1 La méthode du Bootstrap........................................................................................................... 104
II.1.1 Notations............................................................................................................................... 104
II.1.2 La sélection des résidus ........................................................................................................ 104
II.1.3 L’implémentation du Bootstrap............................................................................................ 105
II.2 L’application numérique ........................................................................................................... 107
III. Le calcul du risque à un an............................................................................................................. 109
III.1 La modification de la méthode du Bootstrap............................................................................. 109
III.1.1 Principes........................................................................................................................... 109
III.1.2 Algorithme ....................................................................................................................... 110
III.1.3 L’application numérique.................................................................................................. 112
6

III.2 Le calcul par la formule standard du QIS4................................................................................ 119
III.2.1 Les principes de calcul ..................................................................................................... 119
III.2.2 L’application numérique.................................................................................................. 120
III.3 Synthèse des résultats ................................................................................................................ 121
BIBLIOGRAPHIE................................................................................................................. 123
ANNEXES............................................................................................................................... 126
A. Triangle des incréments ................................................................................................... 126
B. Triangle des nombres de sinistres réglés.......................................................................... 127
C. Triangle des nombres de sinistres déclarés et restant à déclarer ...................................... 128
D. Triangle des nombres de sinistres en cours...................................................................... 130
E. Triangle des cadences de règlements ............................................................................... 131
F. Triangle des temps opérationnels..................................................................................... 132
G. Triangle des coûts moyens par sinistre réglé ................................................................... 133
H. L’algorithme de Newton Raphson ................................................................................... 134
I. L’algorithme du score ...................................................................................................... 135
J. Expression de la déviance................................................................................................ 137
K. Evolution des coûts moyens en monnaie constante ......................................................... 138
L. Rappel élémentaire de théorie du risque .......................................................................... 139
M. Modélisation des dates de règlements futurs.................................................................... 140
N. Projection des règlements de sinistres.............................................................................. 141
O. Caractéristiques du processus d’inflation......................................................................... 142
P. Equidistribution des résidus gamma de Pearson.............................................................. 144
Q. Calcul du risque ultime : programmation de la procédure de rééchantillonage ............... 145
R. Calcul du risque de provision : simulations des dates de règlements futurs .................... 147
S. Calcul du risque de provision : programmation de la régression à un an......................... 148
7


INTRODUCTION
Le 22 Avril 2009, le Parlement européen votait la directive Solvabilité II. Cette réforme, qui
place la gestion des risques au cœur du système prudentiel des assurances, se caractérise par
de nouvelles exigences quantitatives visant à mieux identifier et mesurer les risques portés par
les assureurs. Ces exigences incluent le calcul des capitaux propres et celui des provisions
techniques, s’appuyant sur la notion de meilleure estimation.
Dans ces calculs, les nouveaux principes prudentiels distinguent en assurance non vie le cas
des sinistres à survenir de celui des sinistres survenus en date de calcul. Dans ce mémoire,
nous nous focalisons sur ce dernier cas. Dans le calcul des provisions, il s’agit alors d’évaluer
la meilleure estimation des Provisions pour Sinistres. Et dans le calcul modulaire du capital de
solvabilité, il est requis d’évaluer le risque de provisionnement, introduit par Solvabilité II
dans le risque de souscription, qui constitue un des principaux risques de passif en assurance
non-vie.
Dans le calcul des exigences quantitatives, la Commission Européenne laisse la possibilité
aux assureurs d’utiliser une formule standard ou de recourir à un modèle interne. Ce mémoire
présente un modèle de provisionnement en assurance non-vie, développé dans le cadre des
Modèles Linéaires Généralisés et intégrable au sein d’un modèle interne. On peut en déduire
la meilleure estimation des provisions pour sinistres ainsi que l’évaluation du risque de
provisionnement.
L’approche adoptée consiste à modéliser le coût moyen des sinistres à partir de leur ordre de
règlement, en utilisant les Modèles Linéaires Généralisés (GLM). La connaissance du nombre
de sinistres survenus et restant à régler suffit alors à estimer le montant total des prestations
futures, et par extension celui des provisions Best Estimate pour sinistres.
Les triangles des prestations et des nombre de sinistres réglés, nécessaires à la mise en œuvre
du modèle, sont empruntés à Taylor (2000). Dans les calculs, nous utilisons et supposons
certain le nombre estimé par Taylor des sinistres survenus et restant à régler. Dans le calcul
du risque de provisionnement, cette simplification conduit à ne considérer que l’aléa sur les
coûts unitaires des sinistres futurs. Cette restriction constitue une des limites de l’approche
présentée, notamment dans le cas des dernières survenances où le nombre des sinistres futurs
reste le plus incertain.
Le mémoire est structuré en trois parties. La première partie fournit un rappel des principes de
calcul des provisions techniques et de l’exigence de capital au titre des sinistres survenus et
restant à payer.
La seconde partie présente les caractéristiques du modèle de provisionnement, ses avantages
par rapport aux méthodes par facteurs, et détaille sa mise en œuvre (choix du modèle,
spécification, calibrage, …).
La dernière partie constitue l’application numérique du mémoire. On y met en œuvre le calcul
du Best Estimate des provisions pour sinistres ainsi que celle du risque de provisionnement.
Les provisions pour sinistres 8
PARTIE I. SOLVABILITE II : PRINCIPES DE
CALCUL DU BEST ESTIMATE ET DU RISQUE DE
PROVISION


Cette partie introduit les concepts et principes de calcul liés aux deux variables d’intérêt :
le Best Estimate des provisions pour sinistres et le risque de provisionnement.
Le premier chapitre recense les points que nous jugeons importants de valider pour être
conformes aux exigences de Solvabilité II dans le calcul du Best Estimate de la provision
pour sinistres. Afin de conforter la validité de notre approche, nous présentons en parallèle les
caractéristiques du modèle de provisionnement détaillés en partie II et III.
Le deuxième chapitre introduit les concepts liés au risque de provisionnement traité en
partie III, et en présente deux méthodes approchées.


Les provisions pour sinistres 9
CHAPITRE I. LE BEST ESTIMATE DES PROVISIONS POUR SINISTRES
I. Le périmètre de calcul
L’article 76 de la directive européenne (Parlement Européen, 2009) indique que « la valeur
des provisions techniques est égale à la somme de la meilleure estimation et de la marge de
risque ». Les modalités d’évaluation de la marge de risque ne sont pas traitées dans ce
mémoire qui se concentre sur le principe de la meilleure estimation (en anglais, Best
Estimate).
Le calcul du Best Estimate en non-vie est segmenté selon deux niveaux :
• L’article 79 de la directive européenne précise que les provisions techniques doivent
être calculées par groupes de risques homogènes. A cet effet, dix huit branches
d’activité sont identifiées à l’annexe I de la directive, dont la branche « R.C. véhicules
terrestres automoteurs » à laquelle se rattache le portefeuille étudié.
• Dans chaque branche, les spécifications techniques du QIS4 distinguent les sinistres
survenus en date de calcul des sinistres à survenir. En ce sens, le Best Estimate est la
somme des Best Estimate:
o de la provision pour primes qui se substitue aux provisions pour primes non
acquises et aux provisions pour risques en cours.
o de la provision pour sinistres constituée au titre des sinistres survenus.
Ce mémoire se focalise donc sur cette dernière partie des provisions techniques. A ce sujet,
notons que les spécifications du QIS4 (TS.II.E.8) préconisent de dissocier le calcul des
provisions pour sinistres de celui des provisions pour primes.
II. Les principes d’évaluation
II.1 Aspects méthodologiques
Au centre des règles de calcul à respecter, le concept du Best Estimate organise le passage
d’une évaluation prudente des provisions techniques assise sur des hypothèses réglementaires,
à une évaluation économique plus réaliste. Plus précisément, l’article 76 définit le Best
Estimate comme « la moyenne pondérée par leur probabilité des flux de trésorerie futurs,
compte tenu de la valeur temporelle de l’argent […], déterminée à partir de la courbe des taux
sans risque pertinente ».
Comme il apparaît difficile de préconiser de façon systématique des méthodes de calcul en
fonction de cas identifiés (duration, type de risque, …), le Best Estimate est davantage un
ensemble de principes qu’un guide méthodologique. Au lieu d’imposer des méthodes de
calcul dans son évaluation, les principes réglementaires incitent plutôt l’assureur à s’inscrire
dans une démarche méthodologique, dont certains aspects importants sont rappelés ci-après.
Les provisions pour sinistres 10
• L’usage de méthodes reconnues
Pour les branches de forte incertitude telle la branche étudiée, les spécifications techniques
du QIS4 préconisent l’utilisation de méthodes avérées dites best practice en citant les
méthodes construites à partir du triangle de liquidation (TS.II.E.10).
A ce sujet le modèle étudié extrapole les prestations futures à partir du triangle de
liquidation des nombres de règlements et du triangle des prestations payées.
• La volonté de croiser différentes méthodes
Les spécifications techniques du QIS4 conseillent d’estimer les PSAP à partir d’au moins
« deux méthodes actuarielles considérées comme fiables conduisant à un faisceau convergent
d’estimations. De ces méthodes, la plus appropriée, celle qui capture le mieux, de façon
prudente, fiable et objective la nature du risque, est ensuite retenue. ». L’objectif d’une telle
démarche consiste à contrôler l’absence d’erreur de modèle et de paramètres.
Dans ce mémoire, nous nous consacrons à présenter une méthode compatible avec les
exigences de Solvabilité II. Dans le cas de la branche corporelle automobile, le rapport de
l’ACAM sur le Best Estimate en non-vie (ACAM, 2007) conçoit trois types de méthodes :
o Les méthodes de cadences appliquées aux paiements, recours, nombres et
charges de sinistres dossier par dossier.
o Les méthodes d’exposition appliquées aux paiements, recours, nombres et
charges de sinistres dossier par dossier.
o L’approche basée sur des loss ratios ultimes fonction de la sinistralité déjà
survenue et de la politique tarifaire.
• La justification des méthodes utilisées
La directive prévoie que les assureurs soient capables de justifier des méthodes de
provisionnement utilisées. En ce sens, l’article 119 relatif aux normes de qualité statistique
précise que « les entreprises d'assurance et de réassurance doivent être en mesure de justifier
auprès des autorités de contrôle, les hypothèses qui sous-tendent leur modèle interne ».
Sur ce point, les conclusions de l’étude des données présentée au début de la deuxième
partie doivent permettre de justifier le recours au modèle présenté.
• Une qualité minimale d’ajustement
Les spécifications techniques du QIS4 conseillent la mise en œuvre de tests d’ajustements,
de sorte à rejeter les méthodes conduisant à une qualité d’ajustement insuffisante (TS.II.E.13).
A cet égard, le cadre des Modèles Linéaires Généralisés, dans lequel s’inscrit le modèle
de provisionnement présenté, permet de procéder tant à des tests d’ajustements globaux
qu’à des tests de significativité des variables explicatives.
Les provisions pour sinistres 11
II.2 Aspects calculatoires
Le croisement des principes réglementaires et des préconisations émises par l’ACAM ou le
Groupe Consultatif Actuariel Européen
1
permet de préciser de façon suffisante les principes
de calcul à respecter dans le calcul du Best Estimate en non-vie.
II.2.1 Les préconisations du Groupe Consultatif
Dans leur rapport intérimaire sur le Best Estimate en assurance non-vie, le Groupe
Consultatif Actuariel Européen (2008) retranscrit l’article 76 de la directive en cinq points :
• La meilleure estimation correspond à la moyenne actualisée (et non à la médiane).
• L’estimation doit être sans biais et ne pas inclure de marge de prudence.
• Les paramètres utilisés combinent l’expérience de l’entreprise et du marché.
• Les flux futurs doivent refléter l’expérience future de l’entreprise.
• Les flux futurs doivent être actualisés à partir de la courbe des taux sans risque.
II.2.2 Les préconisations de l’ACAM
A l’initiative du Groupe Consultatif, des réflexions ont été menées au niveau national
autour des méthodes approchées du calcul du Best Estimate en non-vie. En France, un groupe
de travail est constitué sous la présidence de l’ACAM. En dehors des méthodes approchées,
son rapport (ACAM, 2007) rappelle les orientations à suivre dans le calcul du Best Estimate.
• Méthodes de calcul
Le rapport précise que les modèles utilisés peuvent être :
• Soit stochastiques, impliquant l’estimation de la distribution des flux futurs, dont
l’espérance actualisée définit la meilleure estimation des PSAP.
• Soit déterministes, auquel cas l’évaluation de la charge ultime moyenne après
application de cadences et de la courbe des taux, conduit à la meilleure estimation.
• Le retraitement des sinistres exceptionnels
Dans le cas de la branche corporelle automobile, le rapport préconise de segmenter
l’analyse par tranches de coût des sinistres. En particulier, il s’agit de séparer les sinistres hors
graves des sinistres graves qui peuvent distordre les observations moyennes de coûts.
A ce sujet, l’approche suivie permet de modéliser les coûts selon une loi de longue queue
de distribution et selon une procédure d’estimation des paramètres cohérente avec cette
distribution. Cette technique peut éliminer la nécessité de retraiter les sinistres graves.

1
Le Groupe Consultatif Actuariel Européen a été créé en 1978 pour représenter l’opinion des actuaires devant les institutions européennes.
Les provisions pour sinistres 12
• Intégration des éléments inflationnistes
Le rapport préconise de distinguer les effets de la réassurance, de l’inflation et des recours
dans le calcul de la meilleure estimation. Quatre étapes de calcul sont définies :
• La projection des triangles de charges et de règlements bruts de recours et de
réassurance, avec prise en compte de l’inflation.
• La projection des triangles de recours.
• L’estimation de l’impact de la réassurance.
• L’actualisation des flux futurs au taux sans risque.
Au sujet de l’inflation, rappelons que l’article 77 de la directive prévoie la prise en compte
de ses effets dans le calcul des provisions techniques. Parallèlement, le rapport de l’ACAM
rappelle que la hausse des coûts dans la branche corporelle automobile est très supérieure à
l’inflation constatée économiquement, du fait des dérives jurisprudentielles et conjoncturelles.
En ce qui concerne la procédure de calcul, le rapport conseille d’estimer les liquidations de
sinistres à partir des historiques retraités de l’inflation passée, puis d’appliquer les conditions
d’inflation future aux projections de prestations.
Le modèle présenté estime l’inflation passée de la branche à partir des historiques
retraités de l’inflation. Cette première approche permet de projeter les prestations futures
en monnaie constante. L’inflation générale contenue dans les prestations futures est
ensuite estimée à partir d’un modèle ad hoc et appliquée aux projections précédentes.
• Escompte des flux
En ce qui concerne l’escompte des flux, le groupe de travail estime raisonnable de
considérer les approximations suivantes :
• Dans la mesure où les prestations sont peu corrélées aux variations de la courbe des
taux d’intérêt, l’utilisation d’une courbe des taux déterministe est suffisante. En ce
sens, on se dispense de probabiliser l’évolution des taux dans le temps.
• On peut également considérer des échéances déterministes, en se dispensant de
probabiliser les dates de règlement des sinistres.
Le calcul de l’espérance des prestations futures est conduit séparément de celui de leur
actualisation, effectuée à partir d’une courbe des taux déterministe et selon des dates de
règlements estimées en conformité avec les hypothèses du modèle.
III. L’expression de la provision pour sinistres
L’information en assurance dommages n’est dans certains cas que provisoire. On se
retrouve ainsi en date d’évaluation des provisions pour sinistres dans une situation où
l’observation des données ne correspond pas à la situation ultime. Dans ce contexte, l’objectif
du provisionnement consiste à anticiper le développement des charges de sinistres pour les
intégrer immédiatement dans le résultat.
Dans cet objectif, le provisionnement en assurance non-vie s’intéresse au déroulement
temporel des paiements d’une branche d’assurance. Les sinistres sont rattachés à des années
de survenance i = 1,…,n ou de souscription et rapportés à des années d’inventaire.
Les provisions pour sinistres 13
Sans perte de généralités, on suppose pour simplifier la notation que les sinistres se
déroulent sur n années : la charge ultime est donc connue de façon certaine passée ce délai.
On désigne par x
ij
ou X
ij
le paiement effectué la j
ème
année de développement au titre des
sinistres survenus l’année i. Ces variables supposées indépendantes sont appelées incréments.
Lors de la clôture de fin d’année n, les montants x
ij
antérieurs à cette date (i+j ≤ n+1) sont
disposés sous la forme d’un triangle de liquidation dont la forme est présentée au tableau 1.
Tableau 1 – le triangle de liquidation
j
i
1 J l n
Charge
ultime
1 x
1,1
x
1,n
C
1,n

. .
i x
i,j
C
i,n

. .
k X
k,l
.
. .
n x
n,1
X
n,n
C
n,n

Les diagonales du tableau correspondent à des règlements calendaires : l’année n a donné
lieu au paiement

=
+ −
n
1 i
1 i n , i
x , toutes années de survenance confondues.
Parmi les n
2
variables du tableau 1, les variables (X
i,j
),
i+j-1≤n
, du triangle supérieur ont été
observées, les (x
i,j
),
i+j-1≤n
étant leurs réalisations. L’objectif consiste à compléter le triangle
inférieur, constitué des règlements restant à effectuer au titre des années 2 à n. Ces quantités
sont considérées comme des variables aléatoires X
i,j
(i, j = 2,…,n ; i+j-1 > n).
Au 31/12/n, la charge ultime au titre de l’année i est constituée de la somme des prestations
passées (connues) et des prestations futures (aléatoires) :

∑ ∑
+ − =
+ −
=
+ =
n
2 i n j
j , i
1 i n
1 j
j , i n , i
X x C .
L’escompte des provisions techniques est un des points majeurs apportés par Solvabilité II
qui prévoie que le Best Estimate doit être calculé « compte tenu de la valeur temporelle de
l’argent ». En supposant par exemple que les prestations soient réglées en fin d’année, le Best
Estimate de la provision pour sinistres constituée au 31/12/n au titre de la survenance i est
égal à la somme des prestations futures actualisées à la courbe des taux sans risque :
( ) ( )
j 1 i n
n
2 i n j
j , i i ) 1 i n j , 0 ( i 1 X R
− + −
+ − =
∧ ∧

+ − − + ⋅ =
où i(0,k) désigne le taux sans risque en 0 d’échéance k années et j , i X

l’estimation de la
prestation payée en fin d’année de développement j et revalorisée de l’inflation.
Si comme nous le faisons ici, on suppose le risque totalement écoulé en n années, le Best
Estimate de la provision pour sinistres s’écrit

=
∧ ∧
=
n
2 i
i R R .
Le risque de provisionnement 14
CHAPITRE II. LE RISQUE DE PROVISIONNEMENT
I. Les fondements du risque
I.1 L’incertitude des PSAP : une analyse par risques
Quel que soit l’horizon de solvabilité étudié, la source du risque de provisionnement est la
même : l’incertitude liée à l’estimation des provisions. On peut associer les facteurs
d’incertitude à trois risques : le risque de volatilité, le risque d’incertitude et les évènements
extrêmes.

Risque de volatilité
Le risque de volatilité est associé aux fluctuations aléatoires en termes de fréquence ou de
valeur d’un évènement. Il est considéré diversifiable dès lors que la loi des grands nombres
assure la baisse de la volatilité du montant moyen de sinistres lorsque le nombre de risques
assurés identiques et indépendants augmente.

Risque d’incertitude
Le risque d’incertitude correspond au risque d’une mauvaise spécification de la
modélisation de la sinistralité ou d’une estimation erronée des paramètres. Il n’est donc pas un
risque diversifiable, car il ne peut être réduit par l’augmentation de la taille du portefeuille.
• Risque de paramètres
L’estimation des provisions passe par l’extrapolation des prestations futures à partir des
observations passées. Classiquement, les modèles de projection sont ajustés à partir des
prestations observées. Ces modèles sont exposés à un risque d’échantillon, au sens où les
historiques de prestations disponibles souvent courts contraignent à estimer leurs paramètres à
partir d’un faible nombre d’observations. De façon générale, les branches sont d’autant plus
exposées au risque qu’elles sont volatiles en nombre et en montant de prestations. Dans le cas
des méthodes par facteurs, le risque est important dans le calcul des coefficients de passage
des dernières années, basé sur peu de données.
• Risque de modèle
La capacité du modèle à estimer les prestations futures repose en fait sur le respect de deux
hypothèses implicites. Tout d’abord, on suppose que le passé est correctement modélisé : les
variables explicatives de la formation des prestations sont pertinentes et exhaustives et la
structure du modèle bien spécifiée. Ensuite, en supposant que les caractéristiques des
prestations futures de sinistres resteront conformes au modèle, on postule également l’absence
de changements fondamentaux ou changements de régime dans la formation des prestations.
Ces changements de régime sont imputables à de nombreux facteurs. Par exemple, des
décisions réglementaires ou judiciaires influant sur le niveau moyen des prestations, des
changements dans la procédure interne de gestion des sinistres ou dans la nomenclature des
produits, la révision de contrats de réassurance sont autant de causes susceptibles de rendre
caduque la cadence des paiements utilisée dans la projection des prestations futures.
Le risque de provisionnement 15
Ces facteurs d’incertitude peuvent conduire à des changements gradués ou brutaux des
paramètres réels du modèle de provisionnement. Barnett et Zehnwirth
2
fournissent un
exemple intéressant d’analyse des résidus définis par la différence entre les prestations payées
et celles estimées par le modèle. Si les résidus présentent une hausse soudaine ou suivent une
tendance régulière, il y a alors lieu de suspecter l’existence d’un changement de régime.

Evènements extrêmes
Ils sont caractérisés par une faible fréquence et un impact important. Du fait de leur rareté,
leur occurrence ne peut être prédite à partir de l’extrapolation d’événements plus communs. Il
est difficile de leur attribuer un montant de perte probable et par extension de capital requis.
I.2 De l’incertitude des PSAP au risque de provisionnement
I.2.1 L’exposition des branches à déroulement long
Les ratios de provisions techniques ont augmenté au fil du temps sur l’ensemble des
risques dommages, en particulier dans les branches responsabilité civile et accidents. En
assurance de responsabilité civile, les provisions représentent ainsi entre trois à cinq fois les
primes acquises, contre 60% à 100% en assurance de biens et entre seulement 10% à 30% en
assurance tous risque automobile.
Cette tendance est liée en partie à la part croissante des sinistres à développement long,
dont les provisions sont davantage sujettes à dérive du fait de multiples facteurs.
Tout d’abord, l’identification et le règlement des sinistres s’inscrivent sur une période
longue. Ainsi, la date du paiement peut varier sensiblement selon la gravité et la complexité
du dommage du fait :
• du délai de déclaration à l’assureur, soit la durée entre la date de survenance et la
date de déclaration du sinistre à l’assureur.
• du délai de règlement, entre la date de déclaration et la date de règlement final.
• de la réouverture de nouveaux sinistres inattendus.
Figure 1 – Processus de règlement des sinistres

Dans le cadre du risque de provisionnement, les sinistres particulièrement critiques sont
ceux qui ne sont pas encore connus, ou ceux qui sont déjà survenus mais pas encore liquidés.

2
Barnett G, Zehnwirth B. (2000), « Best Estimate for reserves », Proceedings of the Casualty Actuarial Society 87, 245-321.
Le risque de provisionnement 16
Dans le provisionnement des risques longs, il est également primordial d’anticiper les
tendances économiques, sociétales et juridiques exerçant une influence sur les engagements
de l’assureur.
Dans les économies développées, ce sont avant tout l’explosion des coûts de santé publique
et les exigences accrues en matière de soins à domicile et en établissement hospitalier. Selon
les prévisions de l’OCDE, le taux d’augmentation des frais de soins de santé pourrait aller
jusqu’à 7,3%
3
par an jusqu’en 2050, de par l’effet conjugué de la hausse des salaires jusqu’ici
bas dans le secteur de la santé et d’une plus grande longévité de la population.
La croissance des frais médicaux est quant à elle due au progrès constant de la médecine et
aux développements de nouvelles thérapies.
De façon générale, on conçoit donc bien qu’il est délicat d’anticiper ces facteurs latents
socio-économiques qui modélisent le niveau des indemnisations et contraignent l’assureur à
contrôler périodiquement la suffisance des provisions constituées. Par exemple aux Etats-
Unis, les provisions en assurance de responsabilité civile médicale constituées au titre de
l’année de survenance 2000 ont été augmentées de 25% en 2006
4
.
Cette observation rappelle deux caractéristiques majeures de l’activité d’assurance :
• La rentabilité d’une activité doit être considérée après l’écoulement total du risque. En
ce sens, la littérature s’est jusqu’ici concentré sur le risque dit ultime d’insuffisance des
provisions à couvrir les engagements de l’assureur sur la totalité du développement des
sinistres.
• Si cette vision de long terme est centrale dans le calcul des provisions, elle est
inopérante à prémunir l’assureur du risque d’insolvabilité sur un horizon court.
Ainsi, d’une année sur l’autre, l’information supplémentaire obtenue (tendance,
caractéristiques statistiques, déclarations tardives, règlement définitif,…) peut conduire
l’assureur à réviser le montant de ses provisions à la hausse et occasionner des pertes
importantes. Ce risque de court terme constitue le risque de provisionnement tel que le définit
Solvabilité II. Il doit être estimé et conduire à la constitution d’une charge en capital.
I.2.2 Le cas des dommages corporels en automobile
L’assurance dommages corporels en automobile couvre par définition les dommages
corporels en cas d’accident automobile. L’assureur payeur est l’assureur de l’automobiliste
fautif, ou du conducteur, en cas de dommages occasionnés à des passagers.
Compte tenu du rapide inventaire des facteurs de variations amorcé dans la section
précédente, on conçoit bien que la branche dommages corporels en automobile soit
particulièrement exposée au risque de provisionnement.
Ainsi, l’assureur est tout d’abord exposé au risque de provision du fait des délais de
déclaration et de règlement des sinistres. En particulier dans le cas des préjudices corporels
graves, les réclamations découlant d’un événement dommageable ne sont parfois connues que
très longtemps après la survenance du sinistre.

3
Münchener Rück, « La gestion des cycles, les risques de variations », Enterprise Risk Management, 2/2008.
4
Swiss Re, « Provisionnement des sinistres en assurance de dommages : progresser sur un défi stratégique », Sigma n°2/2008.
Le risque de provisionnement 17
Et même dans le cas des sinistres connus, leur écoulement souvent long expose l’assureur à
l’évolution de multiples facteurs environnementaux :
Tout d’abord, comme les niveaux de prestations restent étroitement liés au droit national de
la responsabilité, l’assureur n’est pas à l’abri d’une décision de justice le contraignant à
réviser les provisions constituées au titre des sinistres en cours.
Dans le cas des dommages corporels graves, les rentes versées ainsi que les frais de soins
et de traitement médical doivent être payées pendant la durée de vie de la victime. Lorsqu’une
indemnisation en rente est décidée, elle concerne en général les postes de préjudices suivants :
frais médicaux, autres frais entraînés par l’infirmité (notamment les frais de tierce personne
dans le cas des grands invalides) et pertes de revenus. Et dans un monde où les changements
vont à un rythme croissant, les dimensions des tendances de long terme de l’ensemble de ces
postes sont facilement sous-estimées.
Enfin, on observe dans la plupart des pays que les indemnisations revendiquées sont de
plus en plus souvent versées sous formes de rentes. Ce mode d’indemnisation expose
l’assureur à la hausse de ces coûts à plus d’un titre : tout d’abord si le montant à verser est
fixé selon une base nominale, sans possibilité d’adaptation ultérieure, l’assureur prend en
charge essentiellement le risque de longévité. De plus, et à l’inverse d’un paiement en capital
immédiat et libératoire, le paiement sous forme d’arrérages l’expose également à un risque de
baisse des taux et au renchérissement des provisions constituées qui en découle.
Et dans tous les cas, s’il s’agit d’indemnisations sous forme de rentes, il est possible suite à
une détérioration médicalement constatée que la réouverture d’un sinistre clôturé occasionne
une augmentation subite des provisions.
II. Le risque de provisionnement de Solvabilité II
II.1 La définition du risque
Reprenons la définition du Capital de Solvabilité défini à l’article 100 de la directive :
« Le Capital de Solvabilité Requis correspond au capital économique dont à besoin une
entreprise d’assurance ou de réassurance pour limiter la probabilité de ruine à 0.5%, c'est-à-
dire à une seule occurrence tous les 200 ans. Son calcul utilise la méthode de la Value-at-
risk, conformément à la formule standard ou dans le contexte d’un modèle interne : toutes les
pertes potentielles sur les 12 mois à venir, y compris celles qui découleraient d’une
réévaluation défavorable des actifs et passifs, doivent être évaluées […]. »
En évaluant le risque en fin d’année n, l’application de cette définition au risque de
provisionnement conduit à segmenter les risques qui lui sont associés selon deux périodes
5
:
• Une période de choc, soit l’année n+1 durant laquelle un évènement adverse survient,
cet évènement étant entaché d’une probabilité de survenance de 0.5%.
• Une période affectée débutant en fin d’année n+1 jusqu’à l’écoulement du risque, au
titre de laquelle l’évènement adverse aura conduit à réévaluer la charge de provisions.

5
International Association of Insurance Supervisors (Octobre 2008), « Guidance paper No. 2.1.1 on the structure of regulatory capital es
Le risque de provisionnement 18
II.2 L’identification de la variable d’intérêt
La décomposition par Solvabilité II de la perte à un an en risques de prime
6
et de
provisionnement est assimilable à l’analyse traditionnelle du résultat par année de survenance.
En d’autres termes, les risques de prime et de provisionnement correspondent respectivement
et à peu de choses près
7
à un risque de mali sur liquidation et à un risque de marge courante
négative.
L’analyse par survenance distingue la survenance courante n+1 des survenance antérieures.
Plaçons-nous au 31/12/n et négligeons l’effet de l’actualisation des prestations. Le résultat
technique de l’année n+1 est la somme de la marge courante
~
T et du résultat T de run-off :

¦
¦
¹
¦
¦
´
¦
− − = |
¹
|

\
|
+ − =
− − = |
¹
|

\
|
+ − =
+
+ +

+
+
+
=
+

=
+ −
=

∑ ∑ ∑
) 1 n (
~
1 n
~
1 n
1 , 1 n
~
) 1 n (
1 n
) n (
n
1 i
) 1 n (
i
n
1 i
2 i n , i
n
1 i
) n (
i
R X P R X P T
R X R R X R T

La marge courante
~
T est constituée par la différence entre les primes P payées l’année n+1
et la somme des provisions et prestations payées 1 n
~
X + en n+1 qui leur sont associées.
Quant au résultat T, il est également appelé boni mali sur liquidation. Il correspond à la
marge technique comptabilisée au titre des survenances antérieures à l’année n+1. Le résultat
T est égal à la différence entre la provision d’ouverture R
(n)
et la charge de l’année constituée
des prestations X
n+1
payées durant l’année n+1 et de la provision de fermeture R
(n+1)
.
Plaçons nous désormais au 31/12/n+1, en considérant une année de survenance i ≤ n. Le
résultat qui lui est associé sur l’année n+1 s’écrit

(
¸
(

¸

+ − + =
+

+ −

) 1 n (
i
2 i n , i
) n (
i
i
R x I R T .
Comme
( ) ( )

+ − =
∧ ∧
=
n
2 i n j
n
j , i
n
i X R , on peut écrire

( ) ( ) ( )
∑ ∑
+ − =
+

+ − =

+ −
+ −

+

+ −

− +
|
¹
|

\
|
− =
(
¸
(

¸

+ − + =
n
3 i n j
1 n
j , i
n
3 i n j
n
j , i
2 i n , i
n
2 i n , i
) 1 n (
i
2 i n , i
) n (
i
i
X X x X
R x I R T
. (1)

6
Le risque de primes concerne les sinistres non survenus, dont certains sont déjà provisionnés au travers de la provision pour primes, et dont
les autres correspondant à des polices souscrites durant l’année n+1, sont couverts par les primes associées.
7
Il s’agit de réintégrer dans le risque de provisionnement les sinistres survenus en n+1 dont les primes associées ont été payées en n.
Le risque de provisionnement 19
Dans l’équation (1) apparaissent les deux éléments constitutifs du boni mali de liquidation
enregistrés l’année n+1 au titre de la survenance i :
• Le premier terme dit boni – mali sur prestations comptabilise la part de résultat liée à la
différence entre le montant x
i,n-i+2
de prestations payées sur l’année n+1 et celui
provisionné au 31/12/n au titre de l’année n+1.
• Le deuxième terme dit boni – mali sur provisions représente la part de résultat liée à la
réévaluation de la provision en fin d’année n+1, compte tenu de l’information obtenue
durant l’année.
On distingue donc facilement le lien entre le niveau de la variable T et chacune des
périodes en risque. L’effet d’un choc survenant l’année n+1 agit directement sur le niveau des
prestations X
i,n+2-i
payées l’année même, tandis que la période affectée intervient
indirectement à travers la réévaluation en fin d’année n+1 de la provision R
i
(n+1)
, pour les
survenances i ≤ n. Par exemple, une décision de justice intervenant l’année n+1 peut conduire
à une aggravation des sinistres sur l’année courante et à une révision à la fin de l’année des
montants de provisions en couverture du risque affecté.
II.3 Risque à un an contre risque ultime
En ajoutant le terme

+ −
=
1 i n
1 j
j , i
x dans chacun des deux membres de la partie droite de
l’équation (1), on a également

( ) ( )
( ) ( )
( ) ( ) 1 n
n , i
n
n , i
1 n
i
2 i n
1 j
j , i
n
i
1 i n
1 j
j , i
n
3 i n j
1 n
j , i
2 i n , i
1 i n
1 j
j , i
n
2 i n j
n
j , i
1 i n
1 j
j , i i
C C
R x R x
X x x X x T
+
∧ ∧
+

+ −
=

+ −
=
+ − =
+

+ −
+ −
= + − =

+ −
=
− =
(
¸
(

¸

+ − + =
(
¸
(

¸

+ + − + =
∑ ∑
∑ ∑ ∑ ∑
.
Le risque de provisionnement est capturé par la distribution de probabilité de la variable T,
conditionnellement à l’information disponible à la fin de l’année n. Autrement dit, l’étude du
risque de provisionnement à un an conduit à s’intéresser à la variabilité dans un an de
l’estimateur de la charge ultime par rapport à sa valeur présente.
On note le contraste entre l’approche à un an requise par Solvabilité II et l’approche dite
« à l’ultime » associée à la problématique du provisionnement. Ainsi, l’approche à l’ultime
s’inscrit dans une perspective de long terme, en se focalisant sur l’incertitude liée au
provisionnement jusqu’au développement total des sinistres. Elle se concentre sur l’étude de
la variable R
i
(n)
– ∑
+ − =
n
2 i n j ij
x ,

soit la somme des pertes et profits constatés depuis la date
d’évaluation jusqu’à l’écoulement total du risque, et dont seulement une partie viendra
affecter le résultat de l’année n+1.
Dans une vision à l’ultime, on est donc intéressé par la variabilité de l’estimateur de la
charge ultime par rapport à sa valeur à l’ultime. Dans une vision à un an, il s’agit de mesurer
la variabilité de cet estimateur par rapport à sa valeur dans un an.
Le risque de provisionnement 20
En guise d’illustration, prenons la méthode Chain Ladder. La technique consiste depuis la
diagonale du triangle de liquidation à estimer à la fin de l’année n la charge ultime C
i,n
par le
montant

) n (
1 n
) n (
i 1 n
1 i n , i
) n (
n , i f f C C −

− +

+ −

× × × = L , pour 2 ≤ i ≤ n,
où les coefficients
) (n
j
f

représentent l’accroissement des paiements cumulés observés à la
fin de l’année n, entre les années j et j+1.
Leur application successive aux montants connus C
i,n+1-i
permet pour chaque année de
survenance i d’estimer la charge ultime C
i,n
, 2 ≤ i ≤ n et ainsi la provision R
i
.
En fin d’année n et n+1, les estimateurs des coefficients de développements sont




=

= +

=
j n
i j i
j n
i j i
n
j
C
C
f
1 ,
1 1 ,
) (
et


+ −
=
+ −
= +
+

=
1
1 ,
1
1 1 ,
) 1 (
j n
i j i
j n
i j i
n
j
C
C
f .
Les estimations associées des charges ultimes s’écrivent



+ − =

+ −

=
1 n
1 i n j
) n (
j
1 i n , i
) n (
n , i f C C et


+ − =
+

+ −
+

=
1 n
i n j
) 1 n (
j
2 i n , i
) 1 n (
n , i f C C , pour i ≥ 2.
Dans le cas de la méthode Chain Ladder, l’information obtenue sur l’année n+1 influe
donc sur l’estimation de la charge ultime à deux niveaux :
• par l’intégration des prestations de l’année n+1 dans le calcul de la charge ultime.
• par l’application des nouveaux coefficients de passage à la nouvelle diagonale des
règlements cumulés observés.
III. Mesures de risques
III.1 L’indicateur du MSE : une mesure du risque à l’ultime
L’erreur quadratique moyenne (« Mean Square Error ») constitue une mesure courante de
l’incertitude liée à l’estimation des PSAP jusqu’au développement ultime des sinistres.
En désignant par D = { } 1 + ≤ + n j i x
ij
l’information disponible en date de calcul, sa
valeur correspond à la distance moyenne au carré entre la réalisation C
i,n
et sa valeur estimée :

(
(
¸
(

¸

|
¹
|

\
|
− = |
¹
|

\
|
∧ ∧
D C C E C MSE
2
n , i
n , i
n , i .
Le risque de provisionnement 21
Comme
8
( ) [ ] ( ) ( ) [ ]
2 2
c X E X Var c X E − + = − pour toute constante c, on a par analogie
( ) ( ) [ ]
2
n , i
n , i n , i
n , i C D C E D C Var C MSE
|
¹
|

\
|
− + =
|
¹
|

\
|
∧ ∧
,
car n , i C

est une constante connue dès lors que D est connu et C
i,n
est D - mesurable.
L’incertitude portant sur l’estimation de C
i,n
résulte donc de deux facteurs :
• Le premier terme est une mesure de l’erreur liée à la variabilité du processus ou du
risque de volatilité (en anglais, process variance).
• Le second terme capture l’erreur liée à l’estimation des facteurs par l’écart au carré
entre l’estimateur n i C ,

et sa cible E(C
i,n
| D) (en anglais, parameter estimation error).
En remarquant que i
i
n , i
n , i
R R C C
∧ ∧
− = − , on a

|
¹
|

\
|
=
(
¸
(

¸

|
¹
|

\
|
− =
(
¸
(

¸

|
¹
|

\
|
− =
|
¹
|

\
|
∧ ∧ ∧ ∧
n , i
2
n , i
n , i
2
i
i
i C MSE D C C E D R R E R MSE
Comme E(C
i,n
) = n , i C

, SE( n , i C

) = |
¹
|

\
|

n , i C MSE est l’estimateur de l’écart type de R.
III.2 La mesure du risque à un an
III.2.1 Solvabilité II : La mesure par la VaR
Reprenons la notation du II. On désigne la perte technique sur l’antériorité comptabilisée
l’année n+1 par L = – T.
Dans un but de protection des assurés, Solvabilité II impose l’immobilisation d’un montant
de capital minimal ρ(L)
9
, assurant le financement de ces engagements dans les cas où les
ressources primaires constituées des primes, des provisions et des revenus financiers ne
suffisent pas à honorer les engagements contractés auprès des assurés.
En munissant L d’une distribution de probabilité (risque neutre, historique,…), ρ(L) doit
en principe être choisi de telle sorte que l’évènement « L > ρ(L) » soit improbable. A cette
fin, Solvabilité II a privilégié la Value-at-Risk (VaR) parmi les mesures de risques.

8
Par linéarité de E(X) on a ( ) ( ) { } [ ] { } [ ] [ ] { } [ ] { } { } [ ] [ ] { }
2 2 2 2 2 2
c X E c X E c X E c X E 2 c X E c X E c X E X V − − − = − + − ⋅ − − = − − − = .
9
La fonction ρ est une fonctionnelle à définir faisant correspondre au risque S un nombre positif noté ρ(S) et vérifiant les propriétés de
cohérence définies dans Artzner, Delbaen, Eber et Heath (1999), « Coherent Measures of Risk », Mathematical Finance, 9, pp. 203-228.
Le risque de provisionnement 22
La VaR définit le α-quantile de L.
Var
α
(L) = Inf{x | P[L ≤ x] ≥ α }= Q
α
(L) = ( ) α
−1
S
F , 0 ≤ α ≤ 1,

1
X
F

est la fonction quantile de L, soit l’inverse de sa fonction de répartition.
Un des reproches majeurs fait à la VaR est qu’elle ne précise ni l’importance de la perte, ni
sa distribution au-delà d’un seuil
10
. Cet inconvénient peut être considéré comme majeur pour
des distributions de pertes caractérisées par des queues épaisses.
C’est la raison pour laquelle on préfère souvent à la VaR la Tail VaR (TVaR) définie par
( ) ( ) ξ
α −
=

α
ξ α
d L VaR
1
1
L TVaR
1
, 0 ≤ α ≤ 1.
La TVaR est la moyenne des VaR de niveau de confiance supérieur ou égal à α. Pour des
distributions continues, on a
( ) ( ) [ ] L VaR L L E L TVaR
α α
> = .
Autrement dit, il s’agit de la traduction mathématique du concept de « perte moyenne dans
les pires (1 – α)% des cas ». A l’inverse de la VaR, la TVaR permet de distinguer deux
distributions de perte qui ont le même α-quantile mais sont différentes par ailleurs (en
particulier n’ont pas les mêmes queues de distribution, ou la même asymétrie).
La TVaR peux également s’exprimer en fonction d’une autre mesure de risque, celle
d’Expected Shortfall définie par
( ) ( ) [ ]
+
α
ρ − = L S E L ES
Le Shortfall peut s’interpréter comme la part de perte non couverte par l’assureur. En ce
sens, elle définit le risque résiduel d’insolvabilité. Si ρ(L) = VaR(L), la TVaR s’exprime
comme une combinaison linéaire de la VaR et du Shortfall.
Comme

( ) ( ) [ ] ( ) ( ) ( )
( ) ( ) ( ) α − ⋅ − ξ =
ξ − = − =


α
α ξ
+
α ξ
+
α α
1 L VaR d L VaR
d L VaR L VaR L VaR L E L ES
1
1
0
,
on a ( ) ( ) ( ) ( )
+
α α α

α −
+ = L VaR L E
1
1
L VaR L TVaR .

10
sauf quand une distribution théorique comme la loi normale est supposée a priori.
Le risque de provisionnement 23
Même si la VaR est décriée à cause de son absence de sous additivité
11
, Dhaene et al.
(2004) montrent que cette mesure de risque est optimale au sens où elle minimise la fonction
12

( ) ( ) [ ] ε + − =
+
d d L E d , L C ,
tout en conduisant au plus petit niveau de capital d.
III.2.2 Méthodes approchées

Une approche historique
Une méthode simplifiée de calcul du capital requis est proposée dans l’étude de l’AISAM-
ACME (2007). Elle consiste à calculer la charge de capital par application d’un chargement
de solvabilité à la meilleure estimation de la provision d’ouverture. En ce sens, la solution est
analogue à la pratique actuelle d’inclusion d’une marge de prudence dans la provision.
La valeur de la marge de prudence est définie à partir des données historiques de la
branche. Plus précisément, l’approche vise à capturer l’augmentation relative à un an des
provisions définie par

|
¹
|

\
|
+
|
¹
|

\
|
+ |
¹
|

\
|
− −
=
n
n
n n
R
X R R
m
1
1

Alors, la charge en capital estimée au 31/12/n est définie par

( )
( ) m Q R C
n
% 5 , 99
× =
Cette approche rétrospective fournit une indication sur la volatilité historique des
provisions à un an. Toutefois, la méthode reste dépendante de la définition de R
(n)
. Par
exemple, une méthode alternative de provisionnement réduisant de 10% le niveau des
provisions conduit au même chargement en capital

( ) ( )
( )
( ) ( )
( ) n
1 n
1 n n
n
1 n
1 n n
R
X R R
R 9 . 0
X 9 . 0 R 9 . 0 R 9 . 0
m
+
+
+
+
− −
=
− −
= ,
mais diminue également de 10% le niveau de ressources R
(n)
× (1+m) devant assurer la
solvabilité à un an dans 99.5% des cas.
En ce sens, cet exemple met en avant la nécessité de définir le Best Estimate dans la
distribution du risque. A ce sujet, nous avons vu que la notion de meilleure estimation
correspondait à l’espérance actualisée de la somme des prestations futures.

11
Une mesure de risque est sous-additive si ρ(S1+S2) ≤ ρ(S1)+ρ(S2). Intuitivement, la propriété est légitime si en cas d’évènement adverse, le
capital résiduel du risque i « excédentaire » tel que ρ(Si) - Si > 0, permet de couvrir la perte du risque « déficitaire ».
12
dε est assimilable au coût de rémunération du capital immobilisé. La démonstration des auteurs est présentée en annexe.
Le risque de provisionnement 24

Une approche par les quantiles
En prolongement de l’approche de l’AISAM-ACME, Dhaene et al. (2008) proposent une
solution plus adaptée :
En occultant l’effet de l’actualisation, la quantité inconnue R
(n+1)
+X
n+1
est le montant de
ressources nécessaire durant l’année n+1. Cette quantité peut s’écrire en fonction de la
provision certaine R
(n)
d’ouverture, avec

|
¹
|

\
|
+ × = × + =
− +
× +
|
¹
|

\
|
|
¹
|

\
|
|
¹
|

\
|
|
¹
|

\
|
|
¹
|

\
|
+
|
¹
|

\
|
+
|
¹
|

\
|
|
¹
|

\
|
β β 1
1
1
n n n
n
n
n
n
n n
R R R
R
R X R
R R

Le paramètre β désigne la révision du risque effectuée durant l’année n+1. Ainsi, le risque
de provision considère les cas où β est strictement positif, soit

|
¹
|

\
|
+
|
¹
|

\
|
+
> +
n
n
n
R X R
1
1
.
Pour décrire le risque de provisionnement, il s’agit de trouver un estimateur de la volatilité
du facteur d’accroissement β. Dans le cadre de Solvabilité II, le capital requis doit permettre
de couvrir la perte technique liée au risque de mali sur liquidation dans 99,5% des cas, soit

( )
( )
( )
( ) β β
% 5 , 99 % 5 , 99
Q R R Q
n n
⋅ = ⋅
Si l’on suppose β gaussien par simplification, on obtient

( )
( )
( )
( ) ( ) ( ) [ ] 995 . 0
1
% 5 , 99

⋅ + = ⋅ = φ β σ β β E R R Q C
n n

où les paramètres E(β) et σ(β) peuvent être estimés à partir de données historiques.
Etude des données 25
PARTIE II. LA SELECTION DU MODELE


L’aboutissement de cette partie est l’identification du modèle utilisé dans le calcul du Best
Estimate et du risque de provisionnement. Nous choisissons d’étudier la branche des
dommages corporels automobile caractérisée par un développement long.
Les réponses à certaines questions posées lors de la définition d’un modèle s’avèrent
cruciales dans le cas des branches longues : comment modéliser la dérive inflationniste ;
comment projeter les prestations au-delà de l’horizon observé dans le cas de risques
partiellement écoulés, comment tenir compte d’une éventuelle dérive temporelle de la
cadence des prestations ?
Inspirée de Wright (1992) et Taylor (2004), la méthode présentée dans cette partie propose
des axes de réponse à ces questions. Tout d’abord, le modèle utilisé intègre implicitement la
modélisation des facteurs de queue. Ensuite, sa structure souple facilite l’inclusion de facteurs
influents dans la dérive temporelle des prestations de sinistres, tels les phénomènes d’inflation
et de surinflation. Enfin, la méthode propose une modélisation alternative à la méthode par
facteurs, dans le cas courant pour les branches longues où la cadence des prestations est
instable.
L’approche est de type coût moyen. Elle suppose de disposer par survenance et année de
développement des prestations de sinistres, des nombres de sinistres réglés et des estimations
des nombres de règlements à l’ultime
13
.
Le cheminement au modèle final procède en quatre temps. La première partie étudie les
données et justifie du recours au modèle de provisionnement utilisé. Tout en introduisant les
outils propres aux GLM, la seconde partie définit les caractéristiques fondamentales du
modèle. La troisième partie spécifie la structure du modèle tandis que la quatrième procède
aux tests usuels de validation.


13
Et éventuellement les nombres de sinistres en cours, dans le cadre de la modélisation des paiements partiels.
Etude des données 26
CHAPITRE I. ETUDE DES DONNEES
I. L’exposé du problème
I.1 Limites de l’usage des méthodes par facteurs
Pour calculer la provision pour sinistres, nous disposons de différentes techniques qui se
basent sur l’analyse du triangle de liquidation. La plupart de ces techniques passent par la
recherche de facteurs de développement mesurant les taux de progression de la charge entre
deux âges successifs.
Citons par exemple le modèle GLM Poisson surdispersé
14
supposant les incréments
indépendants et distribués selon une loi poisson, de moyenne et de variance
( )
j i
ij ij
e X E
β + α
= µ = et ( )
ij ij
X Var φµ = .
Le lien exponentiel permet une interprétation simple des coefficients α
i
et β
j
. En reprenant
la notation de la section précédente, on a
( )
j
i
n
1 j
n
1 j
ij n , i
e e C E
β
=
α
=
∑ ∑
⋅ = µ = .
soit ( ) [ ]
i n , i
c C E ln α + = , où
(
¸
(

¸

=
β
=

j n
1 j
e ln c .
Cette égalité donne une interprétation du paramètre α
i
en termes de charge ultime espérée
de sinistres.
Par ailleurs, comme

( )
( )

=
β α
β + α
β
= =
n
1 j
n , i
ij
j i
j i
j
e C E
X E
e
e
e ,
on a
( )
( )
i
e
e
C E
X E
n
1 j
j
j
n , i
ij
∀ =

=
β
β
.
Cette dernière quantité représente la proportion moyenne des paiements attendus au cours
de l’année de développement j. Remarquons que cette proportion est indépendante des années
de survenance. En d’autres termes, la projection des incréments futurs repose sur l’application
à chaque survenance d’une unique cadence de développement.
Hors, la pertinence de ce choix de modélisation suppose que les données observées suivent
des évolutions relativement régulières. De ce fait, les méthodes par facteurs doivent donc être
utilisées avec précaution, notamment dans le cas des branches longues dont la durée
d’écoulement rend plus improbable l’hypothèse de stabilité des cadences de prestations.

14
On rappelle que ce modèle conduit aux mêmes résultats que ceux issus de la méthode déterministe Chain Ladder.
Etude des données 27
I.2 Quelques méthodes alternatives
Avec le temps, de nombreux facteurs peuvent en effet venir influer sur le rythme de
paiement des prestations. A ce sujet, le rapport de l’ACAM (2007) rappelle quelques
méthodes alternatives à la méthode des facteurs, dans des cas où l’application d’une cadence
unique n’est pas souhaitable.
• Tendances des facteurs
Les méthodes par facteurs calculent des coefficients de développement de façon globale.
De ce fait, elles ne permettent pas de distinguer des évolutions dans le temps de la cadence
des paiements. Une solution consiste à utiliser des techniques qui passent par le calcul de
facteurs par année de survenance.
Selon les tendances observées, on peut retenir des facteurs calculés :
o A partir d’une moyenne pondérée, en attribuant un poids plus important aux
facteurs des survenances les plus récentes.
o A partir d’une moyenne portant sur les derniers facteurs. Se pose alors la
question de l’horizon à retenir.
Si on observe des tendances, il est impératif d’en tenir compte dans le calcul des facteurs
de développement. La solution choisie doit alors être d’autant plus justifiée qu’elle garde dans
tous les cas une part de subjectivité.
• Dispersion des facteurs
Si le développement des sinistres suit une loi générale, il est normal d’observer des
fluctuations dans les trajectoires de prestations par survenance. Dans tous les cas, que les
facteurs soient peu ou fortement volatiles, l’application d’une cadence unique à l’ensemble
des survenances demeure une solution moyenne. Alors, les diverses solutions possibles basées
sur les facteurs peuvent selon leur dispersion diverger sensiblement.
Différents modèles stochastiques permettent de définir un intervalle de confiance dans
l’estimation de la provision (Munich Chain Ladder, Bootstrap). L’utilisation de ces modèles
est souvent conditionnée par l’hypothèse sous jacente d’indépendance des facteurs de
développement
15
. Ce postulat exclut en particulier les phénomènes de compensation des
règlements de sinistres d’un délai au suivant pour une même année de survenance.
• Volatilité des facteurs
Dans son rapport, le groupe de travail dissocie la dispersion naturelle de la volatilité des
facteurs de développement. Cette dernière faisant référence à une disparité plus heurtée, est
fréquemment observée dans le cas des branches longues pour lesquelles une faible proportion
de la charge ultime est connue lors des premières années de développement.

15
Dans son article « Measuring the variability of Chain Ladder Reserve Estimates» de 1993, T. Mack propose un test de contrôle de
l’absence de corrélation entre les facteurs.
Etude des données 28
A ce sujet, une illustration de l’effet de l’application d’une cadence unique en présence de
volatilité des facteurs est donnée à partir du portefeuille étudié (voir II.2.2).
Dans ce cas, le rapport de l’ACAM préconise deux types d’approches :
o La méthode Bornhuetter-Fergusson combine l’approche traditionnelle des
facteurs avec une estimation « a priori » de la charge ultime. Au fil des
années de développement, cette approche de type crédibilité accorde une
pondération plus importante à l’observation des facteurs.
o Les méthodes basées sur des facteurs de développement en valeur absolue,
construites par exemple sur des historiques de rapports de sinistres à primes.
Ces deux méthodes permettent de limiter l’instabilité des projections liée à la sensibilité de
l’approche par facteurs des premières années. En revanche, leur utilisation reste délicate. Pour
la première, la principale difficulté réside dans la justification de l’estimation « a priori » de la
charge ultime. Quant à la seconde, elle reste conditionnée à la stabilité des loss ratio d’une
survenance à l’autre.
• Eléments de rupture
Indépendamment de leur volatilité naturelle, les trajectoires de développement des sinistres
peuvent également être perturbées par des éléments de rupture. Ces ruptures interviennent
souvent lors d’un même exercice en touchant l’ensemble des années de survenance
16
. Elles
peuvent être causées tant par des sources internes (changement des règles de gestion, des
dates de cut-off ou de la procédure de sélection des risques, …) qu’externes (évolution
jurisprudentielle, économique ou sociale, …) à l’entreprise.
Dans tous les cas, il est primordial de retraiter les données de ces éventuels phénomènes,
de sorte à ne pas utiliser des facteurs erronés dans le calcul des provisions.
I.3 Le cas des données étudiées
Les données que nous étudions sont issues de Taylor (2000). Nous ne disposons d’aucune
statistique relative au portefeuille étudié (benchmark, loss ratio, …). La seule information
connue concerne la branche du portefeuille, soit celle des dommages corporels en automobile.
En fait, les caractéristiques de cette branche nous situent au carrefour des différentes
limites des méthodes par facteurs qui viennent d’être évoquées. Dans le cas des données
étudiées, l’analyse à venir invalide l’usage des méthodes par facteurs pour différentes causes.
On y montre notamment :
o que les facteurs de développement sont volatiles et sujets à tendances.
o Que le volume des paiements est dépendant des procédures de gestion, à
travers les nombres de règlements dont les cadences sont par ailleurs
instables.

16
Dans son article « Measuring the variability of Chain Ladder Reserve Estimates», T. Mack propose également un test de contrôle vérifiant
qu’il n’existe pas de rupture d’ensemble des facteurs sur une année d’exercice.
Etude des données 29
II. La discussion sur les données
II.1 La description des données
II.1.1 Les données utilisées
Si les techniques de provisionnement passent invariablement par l’analyse du triangle de
liquidation, il n’existe pas de consensus clair sur la nature des données à prendre en compte
dans l’estimation de la charge ultime : étudie t’on les sinistres payées ou survenus ?.
Dans le premier cas, les incréments X
ij
représentent les sinistres survenus l’année i et payés
avec j années de retard. Il s’agit du triangle des prestations réglées.
Dans le second cas, les incréments X
ij
représentent les sinistres survenus l’année i et
déclarés la j
ème
année de développement : dans ce dernier cas où les sinistres n’ont pas été
entièrement réglés, le triangle inclut leurs estimations en lieu et place des règlements à venir.
Les deux issues présentent des avantages et des inconvénients :
• Si on inclut seulement les sinistres payés, les données du triangle reflètent la situation
réelle, sans prise en compte de jugement humain. Cependant, la connaissance des IBNR
n’est pas exploitée, et le triangle n’apporte aucune information sur les paiements futurs.
• A l’inverse, les estimations des IBNR peuvent être volatiles, si elles sont soumises à
différentes influences économiques et politiques plus ou moins objectives.
Cette réalité complique à double titre la lecture de la cadence des règlements. Tout
d’abord, du fait des réévaluations des estimations de sinistres, les montants réglés peuvent
différer sensiblement des montants estimés. Ensuite, les sinistres sont considérés réglés en
date d’estimation et non de règlement.
Le modèle utilisé définit le coût moyen d’un sinistre en fonction de l’ordre d’occurrence de
leur règlement. Son utilisation requiert la connaissance des données suivantes :
• Les sinistres payés retraités de l’inflation sont présentés en annexe A. Les prestations
sont exprimées en dollars du 31/12/1995.
• Les nombres N
ij
de sinistres survenus au titre de la survenance i et réglés avec j années
de retard sont présentés en annexe B.
• Les nombres N
i
des sinistres survenus et à survenir au titre de la survenance i sont
présentés en annexe C. Les estimations des nombres de sinistres survenus restant à
déclarer dits tardifs correspondent aux estimations de Taylor (2000).
II.1.2 L’estimation du nombre de sinistres survenus restant à déclarer
Considérons la survenance i et notons D
ij
le nombre de sinistres déclarés durant l’année de
développement j. Classiquement, nous disposons du triangle des D
ij
, pour j = 1, …, n – i+1, et
nous cherchons à extrapoler la série des D
i,j
pour j = n – i+2, …, ∞.
Etude des données 30
On définit le nombre cumulé des sinistres déclarés au titre de i par


=
=
n
1 j
m , i ij
D A
Taylor (2000) extrapole le nombre des sinistres tardifs à partir de la série historique des D
ij
.
Plus précisément, l’extrapolation des tardifs est établie en deux temps
17
:
• Il estime les facteurs de passage ν
j
à partir de la méthode Chain Ladder pour j ≤ 7.
Autrement dit, on définit comme estimateur de ν
j
la quantité


∑ +

= ν
i
j , i
i
1 j , i
j
A
A
, j = 1, …, 7,
où la sommation en i se fait pour l’ensemble des valeurs disponibles
18
.
• Pour les coefficients suivants, il ajuste une courbe aux quantités
7 , , 1 j
j , 1
L =

− ν , qu’il utilise
pour les délais j > 7. Le modèle ajusté est le suivant :

7 j
j 59 . 0 0011 . 0 1


× = − ν
La reconstitution des coefficients de passage est exposée en annexe T. Pour finir,
remarquons que le modèle permet l’extrapolation des tardifs pour les délais importants. Par
exemple pour j ≥ 10, comme , 0 1 j → − ν

on a

∑ ∏

=


=

(
¸
(

¸

− ν + ≅ ν
10 j
j
10 j
j 1 1
Comme

|
¹
|

\
|
− ν × =
− ν
= × =
× = × =
(
¸
(

¸

− ν



=

=
− ∞
=

∑ ∑ ∑
1
41 , 0
59 , 0
41 , 0
1
41 , 0
59 , 0
0011 , 0
59 , 0 59 , 0 0011 , 0 59 , 0 0011 , 0 1
9
10
3
j
0 j
3
10 j
7 j
10 j
j

D’où |
¹
|

\
|
− ν × + ≅ ν


=


1 41 , 0 59 , 0 1 9
10 j
j .
Au final, on obtient


− + =

+ −


ν =
i 1 n j
j 1 i n , i
, i A A .

17
Pour plus d’explications, se reporter à la page 17 de Taylor (2000). On y trouvera plusieurs techniques d’extrapolation des sinistres tardifs.
18
Sur cet exemple,Taylor estime les coefficients de passage selon des historiques différents détaillés en annexe C (tableau 29 bis).
Etude des données 31
II.2 L’application de la méthode Chain Ladder
II.2.1 L’étude préalable des rapports historiques de développement
Les coefficients f
j
calculés par Chain Ladder et les facteurs de développement cumulés
associés
'
j
f sont présentés en bas de triangle de l’annexe A.
Les figures 2 et 3 présentent les facteurs f
1
à f
8
, calculés à partir d’un horizon allant du
dernier exercice comptable 1995 (en bleu) à l’ensemble des seize années disponibles (en
rose). Elles témoignent clairement de l’instabilité de la cadence des prestations dans le temps.
Figure 2 –Rapports moyens de développement f
j
, j = 1 à 4
1
2
3
f1 f2 f3 f4
1 an 2 ans 3 ans 4 ans 16 ans

A priori, la modélisation d’une cadence unique de paiements basée sur les années de
développement apparaît compromise à double titre du fait :
• De la tendance générale à la hausse des rapports historiques
19
.
• De la volatilité des coefficients, notamment dans le cas des délais 1 et 3.
Figure 3 –Rapports moyens de développement f
j
, j = 5 à 8
1,0
1,2
1,4
f5 f6 f7 f8
1 an 2 ans 3 ans 4 ans 16 ans

Dans le cas des branches longues, l’hétérogénéité des cadences de paiements peut conduire
à une instabilité forte dans le calcul des provisions. Autrement dit, l’application de facteurs
multiplicatifs de niveau élevé peut entraîner des effets fortement amplifiés sur l'évaluation de
la charge totale et en conséquence conduire à des niveaux de provisions très volatiles.

19
Les valeurs des rapports historiques sont présentées en annexe A pour les neufs derniers exercices.
Etude des données 32
Par exemple, l’application de la méthode Chain Ladder ajustée à partir des seize années
d’historique suppose que la part de sinistres réglés en fin de 1
ère
année est en moyenne de
% 45 , 5
355 , 18
1
f
1
'
1
= = .
Autrement dit, pour 0.0545 euro réglé en fin de 1
ère
année de développement, la méthode
estime le montant de la charge ultime à 1 euro. A ce sujet, rappelons que l’application d’une
cadence moyenne de paiements à l’ensemble des survenances suppose implicitement
l’homogénéité du développement de leurs prestations.
Par exemple dans le cas de la survenance 1979 où la charge ultime est a priori connue,
l’étude à postériori de la cadence de ses prestations conclut que 9% des prestations étaient
payées en fin de 1
ère
année. L’application du coefficient moyen Chain Ladder à cette
survenance aurait aboutit en fin de 1
ère
année à une surestimation de sa charge ultime de
(0,09-0,0545) × 18,355 = 64,9%.
II.2.2 La sensibilité de la provision pour sinistres
La section précédente donne une mesure de la variabilité de l’estimation des PSAP du fait
de la volatilité des facteurs. Dans le cas des données étudiées, le recours à une méthode par
facteurs n’est de toute façon pas pertinent du fait des tendances décelées dans les facteurs.
Le tableau 2 présente les montants de PSAP obtenus en fonction du nombre d’exercices
retenus dans le calcul des coefficients Chain Ladder, et le rapport (colonne %) de chaque
provision par rapport à la PSAP calculée à partir des seize exercices observés.
Tableau 2 – PSAP - fin d’année 1995
Exercices retenus (%) PSAP

1995 1,768 382 249 638
1990 à 1995 1,474 318 723 185
1985 à 1995 1,055 228 155 210
1979 à 1995 1,000 216 250 173
Par exemple, l’utilisation des facteurs observés durant l’exercice 1995 conduit à une
provision supérieure de 76,8% à celle estimée en recourant à l’ensemble des exercices
disponibles.
De façon plus générale, on observe sans surprise du fait de la hausse des premiers facteurs
de développement avec le temps que l’intégration progressive des exercices passés dans le
calcul des coefficients de passage conduit à une baisse tendancielle du niveau des provisions.
Dans ces conditions, le recours à un unique profil de développement dans le calcul des PSAP
apparaît difficilement justifiable, d’autant que s’il est possible de tenir compte de la tendance
haussière des facteurs en raccourcissant l’historique intervenant dans le calcul des coefficients
f
j
, il n’existe aucune méthode adéquate permettant d’en définir la profondeur.
Etude des données 33
II.3 De l’inadéquation des méthodes par facteurs
II.3.1 L’instabilité de la cadence des règlements
Il est courant que l’instabilité des facteurs de développement soit liée à celle du rythme de
règlement des sinistres. C’est pour cela que Berquist et Sherman (1977) suggèrent de fixer le
montant des IBNR à partir de la durée de règlement des sinistres restant à courir.
Dans cette même démarche, Reid (1978) introduit la notion de temps opérationnel en
associant un indicateur de temps moyen

i
j , i
2
1
1 i
ij
N
N N ⋅ + +
= τ
L
, avec t
ij
∈ [0 , 1],
à chaque cellule (i,j) du triangle, définissant la proportion de tous les sinistres clôturés au
titre de la survenance i au milieu de l’année de développement j.
Les sinistres clôturés en (i,j) sont définis par l’égalité

j , i ij 1 j , i ij
O D O N − + =


où O
ij
désigne le nombre de sinistres restant ouverts à la fin de la période associée à la
cellule (i,j) et D
ij
le nombre de sinistres déclarés durant cette même période.
La notion de temps opérationnel fait référence à la vitesse de règlement d’une cohorte de
sinistres, correspondant dans notre cas aux sinistres survenus durant une même année de
survenance. L’activité de la cohorte débute au temps opérationnel τ = 0 et se termine lorsque
le dernier sinistre de la cohorte est réglé en τ = 1. La figure 4 reprend trois trajectoires de
temps opérationnel du triangle présenté en annexe F.
Figure 4 – Trajectoires de temps opérationnel de trois années de survenances
38%
48%
60%
74%
0%
25%
50%
75%
100%
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
année de développement
1981 1985 1992

Les années de survenance présentées sont sélectionnées pour illustrer la forte volatilité des
trajectoires de règlement, notamment dans le cas des premières années de développement. Par
exemple, on observe que 74% des sinistres de la survenance 1992 ont été clôturés en fin de
4
ème
année de développement, contre seulement 48% pour la survenance 1981.
Etude des données 34
II.3.2 La liaison entre volume des prestations et nombre de règlements
La figure 5 issue de Taylor (2000) superpose le nombre de sinistres réglés et le volume de
prestations par année comptable. On observe le lien étroit entre ces deux variables.
Figure 5 –Volume des prestations (M$) et règlements de sinistres

35
45
55
65
1979 1981 1983 1985 1987 1989 1991 1993 1995
P
r
e
s
t
a
t
i
o
n
s


(
M
$
)
300
800
1 300
R
è
g
l
e
m
e
n
t
s
Prestations Nombre de règlements

L’observation de la figure 5 nous rappelle cependant que la justesse de cette relation peut
dans la pratique être contrariée, notamment du fait de deux phénomènes :
• Certains règlements de sinistres ne conduisent pas forcément à prestations :
Ainsi, l’activité de règlement des sinistres peut tout simplement être artificielle, au sens où
elle répond davantage à une motivation administrative. Par exemple, on peut considérer une
année d’inventaire durant laquelle l’assureur décide de clôturer le maximum de sinistres
laissés ouverts sans utilité.
Sur la figure 7, on remarque que le pic de règlement de l’année comptable 1985 ne
s’accompagne pas d’une hausse du volume des prestations. On observe également que cette
année est adjacente à un minima local de la courbe des sinistres réglés en 1984. On peut
imaginer qu’une partie des sinistres réglés en 1985 correspond à un rattrapage des sinistres
sans suite laissés en suspens en 1984.
• Un certain nombre de prestations ne s’accompagnent pas d’un règlement :
En effet, un sinistre peut déclencher de nombreux versements. On parle de paiements
partiels. Par exemple, ce phénomène peut être accentué dans le cas d’indemnisations sous la
forme d’arrérages : le sinistre est considéré réglé avec le paiement du dernier arrérage.
Etude des données 35
II.3.3 Les coefficients de passage et le temps opérationnel
Si le volume des prestations dépend du nombre de sinistres réglés, on peut s’attendre à
observer un lien entre l’évolution du temps opérationnel et celle des facteurs de
développement.
La figure 6 superpose les évolutions dans le temps des rapports historiques de première
année f
1
et du temps opérationnel τ
2
de fin de deuxième année de développement. La figure 8
effectue la même comparaison pour le facteur de troisième année et le temps opérationnel de
fin de quatrième année de développement.
Figure 6 – Temps opérationnel τ
2
et rapport de développement f
1
2,0
3,2
4,3
5,5
1979 1981 1983 1985 1987 1989 1991 1993
année de survenance
c
o
e
f
f
i
c
i
e
n
t

d
e

p
a
s
s
a
g
e

F
1

d
e

l
'
a
n
n
é
e

1

à

l
'
a
n
n
é
e

2
15%
30%
45%
60%
t
e
m
p
s

o
p
é
r
a
t
i
o
n
n
e
l

T
2

à

l
a

f
i
n

d
e

l
'
a
n
n
é
e

1
F1 T2

Figure 7 – Temps opérationnel τ
4
et rapport de développement f
3
1,35
1,60
1,85
2,10
1979 1981 1983 1985 1987 1989 1991
année de survenance
c
o
e
f
f
i
c
i
e
n
t

d
e

p
a
s
s
a
g
e

F
3

d
e

l
'
a
n
n
é
e

3

à

l
'
a
n
n
é
e

4
45%
62%
78%
95%
t
e
m
p
s

o
p
é
r
a
t
i
o
n
n
e
l

T
4

à

l
a

f
i
n

d
e

l
'
a
n
n
é
e

4
F3 T4

Dans les deux cas, la croissance des facteurs de développement apparaît coïncider avec
celle du temps opérationnel, même si les coefficients de corrélation entre les séries f
j
et τ
j+1

sont loin d’être parfaits. On observe par exemple que la hausse sensible du taux de règlement
τ
2
pour les survenances postérieures à 1991 ne s’accompagne pas d’une augmentation du
coefficient de développement associé.
Etude des données 36
III. L’approche par les coûts moyens
III.1 Les coûts moyens et le temps opérationnel
La section précédente met en avant l’existence d’un lien entre le volume des prestations
payées et le nombre de règlements de sinistres. Le modèle le plus simple reconnaissant la
dépendance entre ces deux variables suppose la relation
( )
j ij ij
S N X E ⋅ = , (1)

∑ ∑
∈ ∈
=
I i
ij
I i
ij j
N X S désigne l’estimateur du coût moyen par sinistre réglé
20
observé
sur le délai j et I un ensemble approprié d’années de survenance.
L’utilisation de la relation (1) suppose implicitement pour un même délai que les coûts
moyens par sinistre réglé restent stables d’une année de survenance à une autre. Dans notre
cas, cette hypothèse n’est donc pas réaliste, du fait du lien établi entre le volume des
prestations et le nombre des règlements de sinistres instables en cadence.
Dans le cas d’instabilité avérée de la cadence des règlements, supposer l’hypothèse
d’invariance de l’ordre peut constituer un axe de modélisation plausible. Autrement dit, il
s’agit de postuler que les variations du rythme de règlement n’ont pour seule conséquence que
de compresser ou d’étendre la durée durant laquelle ces sinistres sont payés, sans affecter ni
leur ordre de paiement, ni leur niveau de prestation.
Imaginons sur un exemple simple deux années de survenance engendrant chacune trois
sinistres, de montants 1000, 2000 et 3000, réglés dans cet ordre pour chacune des
survenances, mais selon une répartition dans le temps exposée au tableau 3.
Du fait de la répartition différente des règlements de sinistres dans le temps, les deux
survenances présentent des niveaux de coûts moyens par délai très hétérogènes. La
modélisation des incréments à partir de ces coûts conduirait à des problèmes similaires à ceux
évoqués dans le cas des facteurs de développement. Si par contre, le développement des
sinistres est mesuré en temps opérationnel, on observe pour les deux survenances les mêmes
coûts par sinistre réglé de 1000 en
3
1
= τ , 2000 en
3
2
= τ et 3000 en 1 = τ .
Tableau 3 – Prestation cumulée par sinistre réglé



nombre de
sinistres réglés
Prestations
f
j

Prestation par
sinistre réglé
Temps
Opérationnel
Délai
j

Surv. 1 Surv. 2 Surv. 1 Surv. 2 Surv. 1 Surv. 2 Surv. 1 Surv. 2 Surv. 1 Surv. 2

1 1 2 1000 3000 6 1 1000 1500 33,3% 66,7%
2 2 0 5000 0 1 2 2500 0 100,0% 66,7%
3 0 1 0 3000 0 3000 100,0% 100,0%


20
Dans la littérature anglaise, la quantité Sj est usuellement appelée PPCF, pour « Payment Per Claim Finalised ».
Etude des données 37
Dans ces conditions, l’approche par les coûts moyens reste valide. Il s’agit en termes de
modélisation de substituer l’indice τ à j, en passant à une structure paramétrique du type
( )
τ τ τ
⋅ = S N X E
i i
(2)

] ]

τ τ
∈ τ
τ
=
v , u
ij ij
ij
N X S désigne le coût moyen des sinistres réglés dans le τ
ème

intervalle de temps opérationnel.
Dans le cas des données étudiés, les figures 8 et 9 témoignent de l’effet du temps
opérationnel sur l’homogénéité des coûts moyens. Le hamac
21
de la figure 8 fournit une
lecture rapide des propriétés de la distribution des coûts moyens par année de développement
présentés en annexe G. La figure 9 est son homologue en temps opérationnel.
La construction de la figure 9 requiert de partitionner l’intervalle ]0,1] en sous intervalles
]u
τ
, v
τ
],
τ = 1,…,15
, avec u
1
= 0, v
15
= 1, u
τ+1
= v
τ
. On associe le coût moyen
ij
ij
N
X
ij
S = de chaque
cellule (i, j) du triangle au τ
e
sous intervalle ]u
τ
, v
τ
], tel que


τ τ
≤ τ < v u
ij
, où v
τ
=
15
τ
.
L’observation des figures 8 et 9 conduit à deux enseignements. Tout d’abord, on observe
que l’usage du temps opérationnel fait baisser la variabilité intra classe des coûts moyens,
plus homogènes sur la figure 9 que sur la figure 8. Ensuite, on voit que leur regroupement
selon leur temps opérationnel aboutit à une trajectoire plus régulière.
Par ailleurs, on remarque que la trajectoire des coûts moyens de la figure 9 n’est pas
conforme à celle monotone croissante plus usuelle. En effet, il est courant de constater un lien
de proportionnalité entre le temps opérationnel et le coût des sinistres. Autrement dit, les
« petits » sinistres sont réglés plus rapidement que les « gros », davantage sujets à de longue
procédure. En outre, ce postulat souvent vérifié empiriquement est la principale justification
du recours au temps opérationnel. On trouve dans la littérature deux sources d’explication
possibles de la baisse des coûts moyens dans les premières valeurs de temps opérationnel.
La première est avancée par Taylor (1981) qui rappelle que ce phénomène peut s’expliquer
par l’effet de la répartition dans le temps des sinistres réglés sans suite
22
. Sans intervenir ni sur
l’ordre, ni sur la distribution des prestations, ces sinistres sont en effet comptabilisés dans les
nombre de règlements intervenant dans le calcul du coût moyen. En supposant que ces
règlements interviennent majoritairement dans les premières années, le coût moyen peut donc
baisser pour remonter par la suite.
La seconde est exposée par Wright (1992) qui montre que cette baisse peut être liée à
l’existence de paiements partiels importants. Cette problématique est développée plus en
avant. Nous verrons en fin de partie que la modélisation des paiements partiels développée
par Wright fournit dans le cas des données étudiées une explication fortuite à ce phénomène.

21
Le point dans la boîte à moustache représente la moyenne, le haut et le bas de la boite respectivement les 75
ème
et 25
ème
quantiles et les
extrémités des barres supérieures et inférieures les incréments de valeurs extrêmes.
22
Sinistre dont le règlement n’entraîne pas une indemnisation de l’assureur.
Etude des données 38
Précisons que l’hypothèse d’invariance de l’ordre reste bien sûr une idéalisation. En
l’occurrence, sa pertinence même si elle est avérée par le passé, peut se voir remise en cause
d’une année sur l’autre par de nombreux facteurs. Supposons par exemple que sous
l’impulsion d’une décision managériale, les règlements de sinistres sans suite interviennent
plus tôt. La distribution des prestations par année de développement restera inchangée. A
l’inverse, le nombre de règlements effectués dans les premiers intervalles de temps
opérationnel augmentera, et diminuera en conséquence sur les derniers intervalles. Dans le cas
où les données ne sont pas retraitées de ces sinistres, les coûts moyens baisseront dans les 1
ers

intervalles par rapport aux coûts moyens historiques.
Figure 8 –Coûts moyens par année de développement

Figure 9 –Coûts moyens par unité de temps opérationnel

Etude des données 39
III.2 La stationnarité des coûts moyens
L’usage du modèle (2) suppose implicitement la stabilité de la prestation moyenne par
unité de temps opérationnel. En particulier, cette prestation est supposée indépendante de
l’année de survenance.
Dans le cas étudié, la pertinence de cette hypothèse peut être vérifiée à partir des données
du triangle supérieur. Si les coûts moyens de sinistres sont stationnaires par tranche de temps
opérationnel, on s’attend à observer avec le temps des fluctuations aléatoires des coûts
moyens S

autour de leur espérance S
τ
.
Pour chaque survenance, on estime des coûts moyens
τ i
S aux valeurs de temps
opérationnels v
1
, …, v
15
. Ce calcul est établi par interpolation linéaire à partir des
observations de coûts moyens (annexe F) et des valeurs de temps opérationnel associées
(annexe G). Les coûts moyens estimés sont présentés aux figures 10 et 11.
Par exemple, le coût moyen de l’année de survenance 1979 (soit i = 1) en τ =
15
1
est
construit à partir des coûts moyens observés S
1,0,049
et S
1,0,233
. On l’estime à

( ) ( )
127109
049 , 0 233 , 0
049 , 0 130534 94872
130534 S
15
1
, 1
15
1
=

− × −
+ =
Figure 10 –Evolution des coûts moyens S

, τ =
15
1
à τ =
15
8

15 000
53 333
91 667
130 000
1979 1983 1987 1991 1995
année de survenance
S7% S13% S20% S27% S33% S40% S47% S53%

Figure 11 –Evolution des coûts moyens S

, τ = 0,6 à 1

0
60 000
120 000
180 000
240 000
1979 1983 1987 1991
année de survenance
S60% S67% S73% S80% S87% S93%

Etude des données 40
Les figures 10 et 11 révèlent l’existence de tendances dans l’évolution temporelle des coûts
moyens par sinistre réglé :
• Les coûts moyens en figure 10 suivent la même évolution constituée d’une tendance
décroissante depuis 1979 jusqu’en 1987 suivie d’une autre tendance croissante.
• Pour les valeurs élevés de τ présentées à la figure 11, on observe une tendance générale
à la hausse des coûts moyens.
En ce sens, l’hypothèse de stabilité de S
τ
est infirmée, dès lors que l’évolution des coûts
dans le temps n’est pas stationnaire. Par ailleurs, l’existence de tendances ne peut a priori être
imputée à l’inflation, retraitée par Taylor dans le triangle de liquidation. Ce phénomène dit de
surinflation des coûts est modélisé par la suite.
III.3 La partition du temps opérationnel
L’approche par les coûts moyens nécessite de transformer les données originales X
ij
et N
ij

en un triangle S
ij
= X
ij
/N
ij
de prestations moyennes de sinistres. A ce sujet, le triangle des
coûts moyens figurant en annexe G a déjà été présenté dans ce chapitre.
Par ailleurs, l’usage du temps opérationnel requiert d’associer à chacun des coûts moyens
un intervalle de temps. La segmentation choisie doit permettre de définir des profils de coûts
relativement homogènes à partir d’un nombre suffisant d’observations. Pour nous aider dans
notre choix, nous traçons à la figure 12 la courbe du temps opérationnel moyen observé par
année de développement.
Figure 12 –Temps opérationnel moyen par année de développement
2
,
5
%
1
5
,
9
%
3
7
,
5
%
5
6
,
8
%
7
0
,
9
% 8
0
,
3
%
8
6
,
1
%
9
0
,
6
%
9
3
,
7
%
9
5
,
9
%
9
7
,
2
%
9
8
,
1
%
9
8
,
9
%
9
9
,
3
%
9
9
,
7
%
0%
20%
40%
60%
80%
100%
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
j
τ ττ τ

On remarque un développement du temps opérationnel en deux périodes, avec une
inflexion du rythme des règlements en j = 5 après une rapide progression. Cette observation
rappelle la forte proportion des observations à temps opérationnel élevé dans le triangle de
liquidation
23
.

23
Par exemple, 100 des 150 observations de coûts moyens ont une valeur de temps opérationnel supérieure à 70%.
Etude des données 41
Cette caractéristique permet de segmenter davantage le temps opérationnel pour les valeurs
élevées de τ, tout en préservant dans chaque classe de temps un nombre raisonnable
d’observations. Cette démarche doit permettre d’affiner l’axe de projection des coûts moyens
pour les valeurs élevées de temps opérationnel. En particulier, il s’agit d’estimer à partir de
quelle valeur de temps opérationnel les observations de coûts moyens amorcent une
décroissance. Une partition jugée satisfaisante est présentée au tableau 4.
Tableau 4 – Intervalles de temps opérationnel
τ
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
v
τ

0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,75 0,8 0,85 0,9 0,925 0,95 0,975 1
La figure 13 présente le profil des coûts moyens regroupés selon la nouvelle échelle de
temps opérationnel. L’hypothèse d’une tendance à la baisse des coûts moyens à partir de la
valeur de temps opérationnel de τ = 0,9 est confirmée.
Figure 13 –Coût moyen et temps opérationnel - Echelle finale

Etude des données 42
III.4 Le lien moyenne - variance
Dans le cadre des GLM, nous estimons les paramètres du modèle de provisionnement par
maximum de vraisemblance. Ce calcul est rendu possible en spécifiant une loi de distribution
pour chacune des observations de coûts moyens S

. Par les GLM, nous disposons
essentiellement des lois dites de type exponentiel liant l’espérance des variables modélisées à
leur variance par la relation
[ ] [ ]
p
i i
S E S Var τ = τ
τ τ
, pour p ∈ R
+
,
soit en simplifiant la notation :
p
V
τ τ
µ =
.
Malgré les tendances temporelles observées sur les coûts moyens, nous supposons sur
chaque intervalle de temps que les observations des coûts moyens représentent les réalisations
d’une unique variable aléatoire S
τ
, dont l’espérance et la variance sont estimées par la
moyenne empirique et la variance corrigée.
Ainsi, après avoir associé un intervalle de temps opérationnel à chaque coût moyen S
ij
, on
calcule la moyenne et la variance empirique des coûts moyens de chaque intervalle. Les
couples moyenne-variance sont représentés à la figure 14. La liaison croissante entre les deux
variables déjà révélée par la figure 9 est confirmée.
Figure 14 – Liaison moyenne - variance (milliers de dollars)
20,0%
50,0%
60,0%
80,0%
85,0%
90,0%
92,5%
95,0%
97,5%
100,0%
10,0%
40,0%
70,0%
75,0%
V = µ
1,87
0
1 667
3 333
5 000
38,0 67,3 96,6 125,9
Milliers $ 1995
µ µµ µ
V

Etude des données 43
Afin d’éprouver graphiquement l’hypothèse du lien moyenne-variance, nous ajustons, à
partir de l’algorithme de Newton
24
, la courbe V = µ
P
aux couples (V
τ
, µ
τ
) en minimisant la
quantité
( )
2
p
V N

τ
τ τ τ
µ − ⋅ ,
où V
τ
, µ
τ
et N
τ
représentent respectivement la variance corrigée, la moyenne arithmétique
et le nombre d’observations associées à la valeur τ. On aboutit à la valeur p = 1,87.
IV. Les conséquences sur le choix du modèle
Rappelons les conclusions issues de l’analyse qui vient d’être menée :
• L’utilisation d’une cadence moyenne de paiements a été jugée inadéquate (II.2.1) du fait
de l’instabilité des rapports historiques de développement. En illustration, la volatilité
des PSAP issue du calcul Chain Ladder a été mesurée (II.2.2).
• L’inadéquation des méthodes par facteurs a été imputée (II.3) à la liaison entre le
volume des paiements et le nombre des règlements instables en cadence.
• Fort de ce constat, nous avons choisi de modéliser les incréments à partir des coûts
moyens par unité de temps opérationnel. Il a été montré (III.1) que la substitution du
temps opérationnel à l’année de développement aboutissait à des coûts moyens plus
homogènes.
• Du fait des tendances surinflationnistes observées, l’hypothèse de stationnarité des coûts
moyens par intervalle de temps opérationnel n’a pu être retenue (III.2).
Le modèle de provisionnement présenté dans les sections suivantes est développé dans le
cadre des modèles généralisés (GLM). Compte tenu des caractéristiques des données qui
viennent d’être rappelées, plusieurs points militent en faveur de son adoption.
La possibilité de modéliser les coûts moyens à partir du temps opérationnel constitue la
principale opportunité permise par le modèle. En outre, il n’est pas nécessaire de supposer
l’hypothèse de stabilité dans le temps des coûts moyens par intervalle de temps opérationnel.
La nature paramétrique du modèle ouvre également des axes d’analyse intéressants. En
particulier, si l’introduction du temps opérationnel vise à distinguer des profils de sinistres (en
l’occurrence, les petits des gros), il peut être informatif au regard des figures 10 et 11
d’étudier la surinflation des coûts moyens en segmentant l’analyse par niveau de temps
opérationnel. Enfin, le calcul nécessaire des facteurs de queue se déduit naturellement du lien
modélisé entre les coûts moyens et le temps opérationnel.

24
Les principes de l’algorithme sont rappelés en annexe. Le calcul est mené sous Solveur Excel.
Modélisation des coûts moyens 44
CHAPITRE II. LA MODELISATION DES COUTS MOYENS
I. La modélisation par les Moindres Carrés Ordinaires
I.1 Le modèle de régression
On considère les r = 1, …, m observations de coûts moyens du triangle supérieur, chacune
caractérisée par un 3 - upplet (i
r
, t
r
= i
r
+ j
r
– 1, τ
r
), où i
r
, t
r
et τ
r
sont respectivement l’année de
survenance, l’année calendaire et la valeur de temps opérationnel associée à l’observation r.
On définit les variables disjonctives suivantes
25
:
• T variables
to
T , , 1 k , k
z
L =
explicatives de l’intervalle de temps opérationnel associé à
l’observation r, telles que 1 =
to
k
z , si u
k
< τ
r
≤ v
k
, 0 sinon,
• I variables
s
I , , 1 k , k
z
L =
explicatives de la survenance, telles que 1 =
s
k
z si i
r
= k, 0 sinon,
• V variables
c
V , , 1 k , k
z
L =
liées aux années calendaires, telles que 1 =
c
k
z si t
r
= k, 0 sinon.
On modélise le logarithme de la r
ème
observation de coût moyen par

r
V
k
c
k r
c
k
I
k
s
k r
s
k
T
k
to
k r
to
k r
z z z S ε ξ ξ ξ + + + =
∑ ∑ ∑
= = = 1
,
1
,
1
,
ln (1)
Où les termes résiduels ε
r
sont supposés normaux, indépendants et d’espérance nulle et
s c to
k r
z
, ,
,
désigne la variable
s c to
k
z
, ,
associée à la r
e
observation.
Les m = 150 équations du modèle s’écrivent

|
|
|
|
|
¹
|

\
|
ε
ε
ε
+
|
|
|
|
|
¹
|

\
|
ξ
ξ
ξ
|
|
|
|
|
¹
|

\
|
=
|
|
|
|
|
¹
|

\
|
m
1
s
I
to
1
s
I , m
s
1 , m
c
V , m
c
1 , m
to
T , m
to
1 , m
s
I , 1
s
1 , 1
c
V , 1
c
1 , 1
to
T , 1
to
1 , 1
s
I
s
1
c
V
c
1
to
T
to
1
m
1
z z z z z z
z z z z z z
z z z z z z
S ln
S ln
S ln
M M
L L L
M M M M M M M M M
L L L
L L L
M

soit matriciellement,
ε + η = ε + ξ = Z S ln , où
• ( )
p m s c to
Z , Z , Z Z
×
ℜ ∈ = désigne la matrice des p = T + I + V variables explicatives.
• ( )
p
'
s c to
, , ℜ ∈ ξ ξ ξ = ξ désigne le vecteur colonne des paramètres du modèle

m
ℜ ∈ η désigne le prédicteur linéaire.

25
Dans le cas des données étudiées, on a I = 17, V = 17 et T = 15.
Modélisation des coûts moyens 45
I.2 Les tendances élémentaires
Afin d’identifier les tendances associées au temps opérationnel, on ajuste le modèle
ε + ξ =
to to
Z S ln , où ( )
2
, 0 N σ ≈ ε (2)
aux données du triangle supérieur. Les estimateurs
to
k

ξ sont représentés sur la figure 15.
Pour ce modèle, les estimations des coefficients
to
k
ξ sont égales à la moyenne arithmétique
des log S
r
. Il est donc normal de retrouver les tendances observées sur la figure 13.
Figure 15 – Coefficients du temps opérationnel
ξ ξξ ξ
το το το το
9
10
11
12
10% 30% 50% 70% 80% 90% 95% 100%
τ ττ τ

L’ajustement du modèle
ε + ξ + ξ =
c c to to
Z Z S ln (3)
permet d’estimer les tendances liées au temps. Les estimations des paramètres
c
k
ξ
présentées à la figure 16 confirment que les coûts moyens restent assujettis à des tendances
temporelles, même après l’ajustement des tendances
to
k
ξ .
Le profil des coefficients
26

c
k
ξ rappelle l’évolution déjà observée (figure 10) des coûts,
constituée d’une première période fortement baissière suivie d’une seconde haussière.
Figure 16 – Coefficients des années calendaires
-1
0
1
1 4 7 10 13 16
k
ξ ξξ ξk
c


26
∀ r, on a

=
− =
16
1
, 17 ,
1
k
c
k r
c
r
z z . Pour des problèmes de colinéarité entre les variables explicatives, on pose
c
z
17
= 0. On a donc 16
variables disjonctives explicatives de l’année calendaire d’observation des coûts moyens.
Modélisation des coûts moyens 46
L’ajustement aux données du modèle (4) ne permet pas de distinguer de tendances liées
aux années de survenance. Les estimations des paramètres
27

s
k
ξ sont présentées à la figure 17
ε + ξ + ξ =
s s to to
Z Z S ln (4)
Figure 17 – Coefficients associés aux années de survenances
0
0,5
1
1,5
1 3 5 7 9 11 13 15
k
ξ ξξ ξk
s

I.3 Le terme stochastique
Les modèles (2) à (4) supposent les résidus ε
r
gaussiens, donc les coûts moyens S
r

lognormaux. La conformité de cette hypothèse peut être testée à partir de l’observation du
graphe des résidus.
On connaît la variance du résidu observé ( )
r r r
S ln e

µ − = :
( ) ( )
r
2
r
h 1 e Var − σ = ,
où h
r
est le coefficient de levier
28
de l’observation r et
r

µ est l’estimation de ln(S
r
) par le
modèle (2). Des résidus bien adaptés à la distribution normale sont les résidus de Student
approximativement gaussiens pour de grands échantillons et d’expression

r
2
r
) st (
r
h 1 s
e
e

= ,

29


=

− −
=
n
1 r
2
r
2
e
1 p n
1
s est l’estimateur de σ
2
.

27
La variable disjonctive
s
z
17
est redondante au sens où ∀ r, on a
∑ ∑
= =
− =
16
1 k
s
k
15
1 k
to
k
s
17
z z z .
28
Nous explicitons un peu plus loin la forme de hr dans le cadre des GLM. Pour le moment, retenons simplement que hr ∈ ]0 , 1[.
29
Ici, on a n = 150 et p = 15 (les 15 variables disjonctives
to
k
z ).
Modélisation des coûts moyens 47
La figure 18 présente les résidus de Student standardisés du modèle (2). Si les coûts
moyens S
r
sont log normaux, on s’attend à observer des résidus de profil gaussien. Ici, on
observe que les résidus sont distribués de façon asymétrique, davantage étendus vers les
valeurs inférieures à la moyenne
30
.
Figure 18 – Répartition des résidus de Student standardisés – modèle (3)

Ce constat suggère que la transformation logarithmique des S
r
a « surcorrigé » la queue de
distribution des coûts moyens. Autrement dit, les coûts ont une queue de distribution moins
longue que celle de la loi log-normale.
II. La modélisation par les Modèles Linéaires Généralisés
II.1 GLM contre MCO
Les modèles linéaires de la section précédente sont développés dans le cadre des Moindres
Carrés Ordinaires (MCO). S’ils ont permis d’ajuster les tendances élémentaires des coûts
moyens, ils demeurent un outil insuffisant dans l’étude de leur loi de distribution. En effet, le
bon usage des MCO repose sur le respect d’une hypothèse difficilement tenable en pratique,
celle de la normalité et de l’unicité de la variance des résidus, et par voie de conséquence des
variables réponses.
A ce sujet, notons que la transformation logarithmique des données peut dans certains cas
être une solution au respect du cadre théorique des MCO. En effet, si les coûts moyens
avaient été caractérisés par un même rapport moyenne-variance, le postulat log normal aurait
permis de préserver l’hypothèse d’unicité de leur variance
31
.

30
Le coefficient d’asymétrie des résidus est égal à -1,14.
31
Par exemple, supposons deux coûts moyens dont les moyennes respectives sont de 1 000 et 30 000, et les écart types de 100 et 6000. La
transformation logarithmique permet de considérer deux variables de même variance 04 , 0 ] ) 30000 6000 ( 1 ln[ ] ) 1000 200 ( 1 ln[
2 2
≅ + = +
Modélisation des coûts moyens 48
Cependant, dans le cas des données étudiées, la relation croissante décelée entre la
moyenne et la volatilité des coûts moyens nous oblige à sortir du cadre des MCO. Pour cette
raison, il apparaît plus approprié de recourir aux GLM et aux lois de type exponentiel qui leur
sont associées. Ces modèles définissent une relation entre l’espérance du coût moyen et le
prédicteur linéaire.
Cette relation est caractérisée par une fonction de lien g telle que
( ) |
¹
|

\
|
ξ ⋅ =

=

k
p
1 k
k , r
1
r
z g S E , (5)

k
z et
k
ξ désignent selon une notation simplifiée les p = T+I+V variables
s
k
c
k
to
k
z , z , z et
les paramètres associés
s c to
, , ξ ξ ξ déjà présentés.
On définit le prédicteur linéaire de la r
e
observation

k
p
1 k
k , r r
z ξ ⋅ = η

=
.
La fonction g permet de relâcher l’hypothèse formulée par les MCO d’une relation linéaire
entre E[S] et η. Ou plutôt, la relation reste linéaire, mais sous une certaine échelle. Par
exemple, si l’échelle est logarithmique, on passe d’un modèle additif à un autre multiplicatif.
Les modèles linéaires généralisés peuvent être ajustés en utilisant l’algorithme du score de
Fisher. L’algorithme maximise la vraisemblance, ou de façon équivalente, minimise la
déviance. Cette statistique peut être considérée comme la généralisation de la somme des
carrés des résidus d’estimation des MCO
32
. La généralisation vient du fait que la variance de
chaque observation peut être considérée comme une fonction de sa moyenne, évidemment
inconnue. L’objectif de l’ajustement du modèle consiste à estimer cette moyenne.
II.2 Introduction aux GLM
II.2.1 La famille des distributions exponentielles
Les coûts moyens S
r
sont supposés indépendants et non identiquement distribuées. Leur loi
de distribution appartient à la famille exponentielle et leur densité est de la forme
( )
( )
( )
( )
|
|
¹
|

\
|
φ +
φ
θ − θ
= φ θ , S c
a
b S
exp , , S f
r
r r r
r r

Les fonctions a, b et c sont définies telles que f soit une densité de probabilité, avec ( ) φ a
positive et continue, ( )
r
b θ convexe et ( ) φ , x c
r
indépendante de θ
r
. Ainsi, chaque observation
a un coefficient propre θ
r
, mais le paramètre d’échelle φ est le même pour toutes les
observations.

32
On montre en annexe l’équivalence des deux notions dans le cas de la loi normale.
Modélisation des coûts moyens 49
On suppose par la suite que les fonctions a, b et c sont les mêmes pour toutes les
observations. Autrement dit, chaque coût moyen est modélisé à partir de la même loi, mais
avec un paramètre canonique propre θ
r
lié à sa moyenne.
Les paramètres réels θ
r
et φ résument l’information relative à la moyenne et à la variance
des coûts moyens. En effet, on peut montrer que pour ces distributions, on a

( ) ( )
( ) ( ) ) 7 ( b S Var
) 6 ( b S E
r
' '
r
r
'
r r
θ ⋅ φ =
θ = µ =
,
où la valeur de φ > 0, si elle est inconnue, doit être estimée à partir des données
33
.
Si comme c’est le cas des lois classiques, l’expression de l’inverse de ( )
r
'
b θ est connue,
on peut exprimer le paramètre θ
r
, directement en fonction de la moyenne des coûts avec
( )
r
1
'
r
b µ = θ


D’après (5), on a également

|
|
¹
|

\
|
|
|
¹
|

\
|
ξ ⋅ = θ

=


k
p
1 k
k , r
1
1
'
r
z g b .
Cette dernière expression explicite le lien entre la distribution des S
r
et les paramètres
ξ
1
,…, ξ
p
estimés par maximum de vraisemblance. On remarquera que la fonction c est
indépendante des θ
r
et n’intervient pas dans l’estimation par vraisemblance. Comme θ
r
est
fonction de µ
r
, on peut considérer que l’équation (7) établit un lien entre l’espérance et la
variance des coûts moyens. En ce sens, on réécrit (7) en fonction de la fonction variance V :
( ) ( )
r r
V S Var µ φ ⋅ = , (8)
Les fonctions spécifiques aux distributions de la famille exponentielle sont présentées dans
le tableau 5 pour les lois classiques.
Tableau 5 – Fonctions spécifiques d’une densité de type exponentielle

Lois φ ( )
r r
θ µ V(µ
r
) ( ) φ a ( )
r
b θ ( ) ω φ ,
r
S c
Normale
σ
2
r
θ 1 φ 2
2
r
θ ( ) ( ) πφ φ 2 ln
2
2
1
+ −
r
S
Poisson 1
r
e
θ

µ
r
φ
r
e
θ

-ln(S
r
!)
Gamma 1/υ -1/θ
r
µ
r
2
φ -ln (-θ
r
) ( ) ( ) ( ) ( )
φ φ φ
Γ − −
1
r
r
S
1
ln S ln ln

33
On estime φ à partir de la déviance ou en ajoutant une contrainte dans le calcul par vraisemblance des valeurs des paramètres du modèle.
Modélisation des coûts moyens 50
En résumé, les lois de type exponentiel possèdent deux caractéristiques majeures. D’une
part, chaque distribution est entièrement spécifiée par son espérance et sa variance. D’autre
part, la variance de la variable réponse est fonction de son espérance. A partir de (6) et (7), on
déduit que l’espérance et la variance du coût moyen sont liées par la relation
( ) ( )
p
r r
S E S Var ⋅ φ = ,
où les valeurs p=0, 1, 2 correspondent respectivement aux lois normale, poisson et gamma.
II.2.2 L’estimation des paramètres
Le vecteur ( )
'
p 1
, , ξ ξ = ξ L des paramètres du modèle est estimé en maximisant la fonction
de vraisemblance
( ) ( ) ( ) [ ]
∑ ∑
= φ θ = φ θ = φ θ
r
r
r
r r
l , , S f ln S , L ln S , l
où ( ) ( ) ( ) φ + θ − θ =
φ
, S c b S l
r r r r
1
r
est la contribution du coût S
r
à la vraisemblance.
De
|
|
¹
|

\
|
|
|
¹
|

\
|
ξ ⋅ = θ

=


k
p
1 k
k , r
1
1
'
r
z g b obtenu par (5) et (6), on déduit que
( )
∑ ∑
(
(
¸
(

¸

|
|
¹
|

\
|
φ
|
|
¹
|

\
|
|
|
¹
|

\
|
ξ ⋅ = φ θ
=


r
k
p
1 k
k , r
1
1
'
r
, z g b , S f ln s , l
On remarque donc que le système d’équations constituant la fonction de vraisemblance est
à maximiser sur ξ. On obtient le vecteur ξ en annulant le vecteur score U =
ξ ∂
∂l
. Autrement dit,
les paramètres
p 1
, , ξ ξ L sont solutions
34
du système d’équations
( ) ( ) . p , , 1 k 0 S , l S , l
r
r r r
k k
L = ∀ = φ θ
ξ ∂

= φ θ
ξ ∂



On remarque que ( ) ( ) ξ η µ θ = φ θ
r r r r r r r
l S , l o o o est une fonction composée, où


( ) ( )
( )
( ) ( )
( )
¦
¦
¦
¹
¦
¦
¦
´
¦
=
ξ ∂
η ∂
⇒ ξ + + ξ = η
µ
=
η ∂
µ ∂
⇒ µ = η
µ ∂

⇒ µ = η
θ
=
µ ∂
θ ∂
⇒ θ = µ
θ ∂

⇒ θ = µ
k , r
k
r
p , r p 1 , r 1 r
r
'
r
r
r
'
r
r
r r
r
' '
r
r
r
' '
r
r
r
'
r
z z z
g
1
g g
b
1
b b
L


34
On peut montrer la stricte concavité de la fonction log-vraisemblance: l’extremum trouvé est donc unique et correspond à un maximum.
Modélisation des coûts moyens 51
En appliquant la règle
35
de calcul des dérivées des fonctions composées, on obtient

( )
( ) ( )
r
'
r
k , r
r
'
r
k
r
r
r
r
r
r
r
r
k
g . V
z
b S
. .
l
l
µ µ

|
|
¹
|

\
|
φ
θ −
=
ξ ∂
η ∂
η ∂
µ ∂
µ ∂
θ ∂

θ ∂

=
ξ ∂


Comme ( )
r
'
r
b θ = µ , on obtient l’expression des p équations à résoudre :

( )
( )
( ) ( )
0 z
g . S var
S l
S , l
k
k , r
r
'
r
r r
k k
r
k
= ⋅
µ
µ −
=
ξ ∂

=
ξ ∂
φ ξ ∂
∑ ∑
, k = 1,…, p.
Ainsi, en considérant les matrices diagonales W et N =
m m×
ℜ ∈
µ ∂
η ∂
telles que

( ) ( ) ( ) { } ( ) ( ) { }
( ) { }
¦
¦
¹
¦
¦
´
¦
µ =
)
`
¹
¹
´
¦
µ ∂
η ∂
=
µ ∂
η ∂
µ µ φ = µ ⋅ = ξ
=
=
= =
m , , 1 r
r
'
d
m , , 1 r
r
r
d
m , , 1 r
2
r
'
r d m , , 1 r
2
r
'
r d
g
g V g S var W
L
L
L L
,
on remarque que les équations du maximum de vraisemblance pour ξ peuvent s’écrire
( ) ( ) 0 S W Z
1 '
= µ −
µ ∂
η ∂
ξ


Ce système d’équations n’est pas linéaire en ξ qui intervient à la fois dans les matrices W,
N, et dans le vecteur µ. Une façon de le résoudre consiste à utiliser l’algorithme itératif des
scores de Fisher, une variante de l’algorithme plus connu de Newton Raphson
36
.
De l’expression de
'
p 1
,
|
¹
|

\
|
ξ ξ = ξ
∧ ∧ ∧
L , on déduit finalement celle de

|
|
¹
|

\
|
ξ ⋅ = µ

=


∑ k
p
1 k
k , r
1
r
z g ,
puis de
( )
∑ (
¸
(

¸

|
¹
|

\
|
φ
|
¹
|

\
|
µ = φ θ


r
r
1
'
r
, b , S f ln s , l .

35
Si ( ) ( ) [ ] ( ) [ ] ( ) [ ] ( ) x g x g f x g f a on , x g f x g f y
' ' '
× = = = o . En posant u = g(x), on écrit
dx
du
du
dy
dx
dy
⋅ = .
36
Nous utilisons la procédure GENMOD du logiciel SAS qui utilise l’algorithme du score de Fisher détaillé en annexe.
Modélisation des coûts moyens 52
II.2.3 La déviance
On construit un modèle saturé, de mêmes distribution et fonction de lien que le modèle
estimé, mais doté de m variables explicatives. Ce modèle ajuste parfaitement les coûts
moyens. On mesure l’adéquation du modèle à partir de la déviance normalisée

(
¸
(

¸

− =
φ
=

) L log( ) L log( 2
D
D
~
*
,

~
L est la vraisemblance du modèle saturé et

L celle du modèle estimé.
Le test de la déviance procède de la même volonté que celui du ratio de vraisemblance : il
doit conduire à rejeter les modèles dont le niveau de vraisemblance est « trop éloigné » du
niveau maximal associé au modèle saturé.
Autrement dit, le modèle est d’autant mieux ajusté aux données que la déviance est faible.
De façon plus formelle, on définit les hypothèses nulle et alternative du test

¹
´
¦
≠ ξ > ∃
> ∀ = ξ
0 p k : H
p k 0 : H
k 1
k 0
, k = 1,…, n.
Si le modèle estimé est le « bon modèle », la déviance sera répartie sur R
+
mais avec plus
de chance d’avoir des valeurs proche de zéro. Pour quantifier cette notion, nous utilisons la loi
de la déviance sous H
0
.
Comme la déviance est une différence de log-vraisemblances entre deux modèles
emboîtés, il découle
37
que la statistique D
*
suit asymptotiquement une loi du χ
2
(m – p).
Le test se déroule alors classiquement :
• On calcule l’observation D
obs
de D
*
.
• On calcule le quantile de niveau (1 – α) de la loi du χ
2
(m – p) noté q
1 – α
:
On rejette l’hypothèse H
0
si D
obs
> q
1 – α

Dans le cas inverse, le modèle estimé est considéré « adéquat ».
Notons que cette statistique ne permet la comparaison des modèles que s’ils sont issus
d’une même composante aléatoire (V, φ). Dans notre cas, la déviance permettra dans le
chapitre suivant de sélectionner le meilleur modèle parmi différentes structures paramétriques.
Par ailleurs, le test de la déviance ne donne qu’une information sur la qualité globale
d’ajustement du modèle aux données. En ce sens, il ne dispense pas de l’analyse des résidus
qui intervient en parallèle pour obtenir une information plus précise.

37
Ce résultat est principalement lié aux propriétés asymptotiques du maximum de vraisemblance. On pourra se reporter à Saporta (2006)
pour une démonstration dans le cas du ratio de vraisemblance.
Modélisation des coûts moyens 53
II.2.4 Les résidus
En un point d’observation r, l’écart entre l’observation et l’estimation de coût moyen est le
résidu brut :

r r r
S e

µ − = .
Ces résidus e
r
sont vus comme les réalisations des « vraies » erreurs inconnues
( )
r r r
S E S − = ε .
Dans le calcul des e.m.v des paramètres du modèle, nous avons vu que les hypothèses
faites sur les ε
r
consistaient à les supposer indépendants et distribués selon un type de loi à
définir. Ainsi, si le modèle est approprié aux données, les résidus observés e
r
doivent refléter
les propriétés des vraies erreurs inconnues ε
r
.
Toutefois, l’interprétation des résidus bruts peut être délicate en cas de non normalité des
données. En effet, comme ces résidus ne sont qu’une simple transformation linéaire des
observations, n’importe quelle caractéristique de non normalité des données se répercute
directement sur les e
r
. En particulier, les résidus ε
r
n’ont pas toujours la même variance.
Pour tenir compte de la variabilité des résidus, on préfère utiliser des quantités
standardisées comme les résidus de Pearson définis par

|
¹
|

\
|
µ
µ −
=


r
r r
) P (
r
V
S
e .
Peter K. Dunn et Gordon Smyth
38
ont montré d’une part que la moyenne des résidus de
Pearson est nulle, et d’autre part que si leur variance tend vers 0, leur distribution tend vers
une loi normale.
Par définition, on standardise le résidu e
r
par la variance théorique de S
r
, fournie par la
fonction de variance V(.) et donc par le modèle. Ce n’est pas la variance de l’estimation
r

µ
qui est un estimateur donc aléatoire. Pour essayer d’obtenir des résidus de même variance
approximative, on utilise les résidus de Pearson ajustés

( )
( )
r
p
r
) Pa (
r
h 1 V
e
e

=
où h
r
est le levier de l’observation r, soit le r
e
élément diagonal de la matrice H
39
.

38
Dunn P et Smyth Gordon K. (1996), « Randomized Quantile Residuals », Journal of Computational and Graphical Statistics, volume 5,
issue 3, 236-244.
39
On rappelle en annexe I que l’algorithme du score équivaut à procéder à une régression linéaire à chaque étape et s’arrête à l’étape finale
où le processus est stationnaire : ( ) Y W Z Z W Z
1 '
1
1 ' −


⋅ = ξ . Autrement dit, on a Y H Z ⋅ = ⋅ =

ξ µ , où H est la matrice de projection de Y
sur Z (la forme du vecteur Y est spécifiée en annexe).
Modélisation des coûts moyens 54
Les résidus de déviance standardisés constituent une alternative aux résidus de Pearson. Ils
sont définis par

( )
r
r r r
) DS (
r
h 1
d S sgn
e
− ⋅ φ
⋅ |
¹
|

\
|
µ −
=


,
où d
r
est la contribution de la r
ième
observation à la déviance
40
.
Cette définition est moins naturelle. En théorie, ces derniers résidus sont
approximativement distribués selon une loi normale standard. Si tel n’est pas le cas, les
conclusions du test de déviance peuvent devenir vides de sens.
II.3 Les hypothèses du modèle GLM
II.3.1 Le choix de la distribution des résidus
Pour le moment, nous avons observé une distribution des résidus se situant en termes de
queue de distribution en deçà de la loi log normale (section I.3). Pour estimer la distribution la
plus adéquate, nous utilisons le modèle (9) :

[ ] [ ]
c c to to
Z Z exp S E ξ + ξ =
(9)
Ce modèle est inspiré du modèle (3), au sens où il partage la même structure paramétrique.
En revanche, il ajuste les paramètres du modèle à partir des S
r
au lieu des logarithmes
népériens des S
r
tout en exploitant une fonction de lien logarithmique.
La pertinence de la fonction de lien est considérée dans la section suivante. L’exercice
consiste ici en associant le modèle à une loi de distribution à tester l’adéquation de la loi aux
données à partir des résidus de Pearson ajustés issus du modèle (9).
Nous débutons l’expérimentation par la loi Normale. Les résidus issus du modèle GLM -
normal sont présentés à la figure 19. Nous continuons l’expérimentation avec la loi gamma et
présentons les résidus issus du modèle GLM –gamma à la figure 20. Ces deux figures
permettent d’observer empiriquement comment le choix de la fonction variance affecte les
résultats des GLM.
Si la forme du modèle est appropriée (distribution, fonction lien), on doit observer des
résidus stables en moyenne et en volatilité quelle que soit la valeur des estimations. Hors, il
apparaît sur la figure 19 que la volatilité des résidus de Pearson ajustés du modèle GLM –
normal croît avec les estimations. Autrement dit, il ne semble pas adéquat d’utiliser une
fonction variance gaussienne qui affecte la même volatilité à chaque observation. Ce résultat
conforte les conclusions de l’analyse des données établissant un lien croissant entre variance
empirique et moyenne des coûts moyens. A l’inverse, l’observation de la figure 20 permet de
constater que l’usage de la loi gamma stabilise d’une part les résidus de Pearson ajustés, en
moyenne et en volatilité, et d’autre part réduit le nombre et le montant des valeurs élevées.

40
L’expression de dr est rappelée en annexe J.
Modélisation des coûts moyens 55
Figure 19 – Résidus en fonction des estimations– loi normale

Figure 20 – Résidus en fonction des estimations – loi gamma

Par ailleurs, on remarque sur la figure 21 que l’utilisation de la loi Gamma corrige le
problème d’asymétrie à gauche des résidus détecté en cas d’utilisation de la loi log-normale
(figure 18). En témoigne la valeur proche de zéro du coefficient d’asymétrie des résidus. On
observe également une distribution des résidus proche de la loi normale standard.
Figure 21 – Histogramme des résidus de Pearson ajustés - Loi gamma

Modélisation des coûts moyens 56
Dans la sélection de la distribution des résidus du modèle, une déviation trop importante
des résidus de la distribution normale standard constitue souvent un bon indicateur de
l’inadéquation de la distribution choisie. Cette hypothèse est testée graphiquement ci après.
Le test est effectué à partir du QQ-plot des résidus présenté à la figure 22. Ce graphique est
destiné à vérifier l’adéquation d’une variable à une loi de distribution. Dans notre cas, nous
testons donc l’hypothèse de normalité des résidus de Pearson ajustés.
Figure 22 – QQplot des résidus de Pearson ajustés
Loi gamma

Le QQ-plot est la représentation graphique des points
( ) ( )
) PS (
r
1
e ; m r

Φ ,
où les
) PS (
r
e auront été préalablement triés par ordre croissant. Même si on devine sur la
figure 22 une queue de distribution des résidus un peu plus épaisse que la loi normale, on
observe que l’approximation normale de leur distribution reste satisfaisante.
Comme l’hypothèse de normalité n’est pas infirmée, une nouvelle lecture des figures 19 et
20 est possible. En se fixant un seuil d’acceptation à 5%, on peut en effet considérer que les
résidus correspondant à des écarts statistiquement significatifs sont ceux dont la valeur
absolue est supérieure à 2. Le choix de cette valeur critique est évidemment motivé par
l’approximation de la distribution des résidus ajustés de Pearson par une loi normale centrée
réduite. Là encore, l’utilisation de la loi gamma aboutit à des résultats a priori satisfaisants.
Il apparaît donc globalement raisonnable de modéliser les coûts moyens à partir d’une loi
gamma. Tout d’abord du fait des bons résultats issus des tests qui viennent d’être présentés.
Ensuite, parce que ce choix conforte les conclusions issues de l’analyse des données, où on
identifiait la relation V = µ
1,87
. Enfin, parce que ce choix n’apparaît pas aberrant aux vues des
observations de coûts moyens. Ainsi, les incréments du triangle en annexe A et les coûts
moyens qui en découlent sont strictement positifs. Il n’apparaît donc pas anormal d’imposer
une contrainte de stricte positivité
41
sur les S
r
.

41
Rappelons que ce choix n’est pas trivial, dès lors qu’il est possible d’observer des coûts moyens nuls ou négatifs. Par exemple, dans le cas
de traités de réassurance en excédent de sinistres, il est fréquent de ne pas enregistrer de paiements lors d’une année comptable. Il arrive
également que les triangles contiennent des incréments négatifs, du fait des recours qui permettent à l’assureur subrogé dans les droits de
l’assuré de récupérer la somme versée à son assuré auprès du responsable du dommage.
Modélisation des coûts moyens 57
II.3.2 La fonction de lien
Pour tester l’adéquation de la fonction de lien g, on calcule une approximation de g(S
r
).
Dans le cas de la fonction de lien logarithmique, on a

( ) ( )
r
r r r
g g
µ
µ µ µ
1
ln
'
= ⇔ =

Puisque ln µ
r
= η
r
, on en déduit l’approximation

( ) ( ) ( ) ( ) 1
'
− + = − ⋅ + ≅
r
r
r r r r r r
S
S g g S g
µ
η µ µ µ
(10)
Dans le calcul de l’équation (10), on utilise les estimations
r

η et
r

µ . Les résultats sont
présentés à la figure 23. On observe qu’il existe une relation approximativement linéaire entre
l’estimation de g(S
r
) et
r

η . Le lien logarithmique est donc relativement approprié au modèle.
Figure 23 – Diagnostic sur la fonction de lien logarithmique
Milliers de dollars 1995
10
11
12
13
10 11 12
η
r
g(S
r
)

Spécification du modèle 58
CHAPITRE III. LA SPECIFICATION DU MODELE
I. La capture des tendances
I.1 Le rappel du principe de parcimonie
Evidemment, il est impossible de spécifier l’ensemble des variables explicatives de la
formation du coût des sinistres. A défaut, les modèles paramétriques de provisionnement
utilisent traditionnellement les trois dimensions du triangle : l’année de survenance, l’année
calendaire et l’année de développement, remplacée dans notre cas par le temps opérationnel.
Dans le chapitre précédent, l’utilisation de 47 variables disjonctives a permis de modéliser
les coûts moyens en fonction de tendances liées à ces trois variables
42
. Malgré la bonne
qualité d’ajustement associée à leur utilisation, rappelons que cette approche n’a pas répondu
à un principe fondamental en économétrie, celui de parcimonie.
Ainsi, si comme c’est notre cas, le modèle contient « trop » de variables explicatives, les
valeurs de ses paramètres capturent de la volatilité, au sens où les données utilisées lors de
l’ajustement ne constituent qu’un échantillon du processus à modéliser. On parle de
surparamétrisation. La qualité de l’ajustement se fait au détriment de la capacité de prédiction
du modèle. A l’inverse, l’utilisation de trop peu de paramètres risque d’aboutir à une
estimation biaisée, du fait de l’absence de variables importantes. On parle de sous
paramétrisation.
Cette section vise à capturer les tendances du chapitre précédent, tout en réduisant les
paramètres sans trop dégrader la qualité d’ajustement du modèle. Dans cette démarche, nous
utilisons le modèle de séparation (Zehnwirth, 1994) généralisant le modèle CCI.
I.2 Le modèle de séparation
Considérons une seule année de survenance i. On utilise une notation appropriée à la
présentation du modèle de séparation. Les observations (i, j) de coûts moyens sont
caractérisées par le couple (t, l), l désignant le numéro de l’intervalle de temps opérationnel.
On désigne par ( ) ( )
l
S l y ln = , pour l = 2,…, T, le logarithme du coût moyen du l
e
intervalle
de temps opérationnel et on pose
s
) 1 ( y ξ = . Selon cette notation, on exprime ( ) l y par :
( ) ( ) ( ) ( ) ( ) ( )


=
+ = − − + + − + =
1
1
1 1 2 1
l
k
to
k
s
l y l y y y y l y ξ ξ L (10)
où ( ) ( ) k y 1 k y
to
k
− + = ξ , pour k > 0, désigne ici la différence entre les logarithmes des
coûts moyens de deux intervalles de temps opérationnel adjacents.
L’équation (10) définit le modèle déterministe dit Cap Cod (CC).

y
42
Les tendances sont représentées aux figures 15 à 17.
Spécification du modèle 59
L’utilisation de la fonction logarithmique permet d’assimiler la variation
to
k
ξ au taux de
croissance du coût moyen entre les k
e
et (k+1)
e
intervalles de temps opérationnel :
( ) ( ) ( ) ( )
|
|
¹
|

\
|
= − = − + = ξ
+
+
k
1 k
k 1 k
to
k
S
S
ln S ln S ln k y 1 k y .
L’intégration dans l’équation (10) d’une tendance annuelle surinflationniste ξ
c
dépendante
du temps définit le modèle CCI dit Cap Cod with Constant Inflation (CCI) :
( ) ( ) 1 t l y
c
1 l
1 k
to
k
s
− ⋅ ξ + ξ + ξ =


=
(11)
Le modèle dit de séparation est la généralisation probabiliste du modèle CCI. Pour l > 1,
on modélise le logarithme du coût moyen de la cellule (i, j) par la relation
( )
l
1 t
1 k
c
k
1 l
1 k
to
k
s
l
S ln ε + ξ + ξ + ξ =
∑ ∑

=

=
, (12)
On redéfinit les éléments de la matrice Z = {z
ij
} de la façon suivante :
pour les colonnes correspondantes aux I paramètres
s
k
ξ , on a z
ij
= 1 si i = k, 0 sinon.
pour les colonnes représentant les (T– 1) paramètres
to
k
ξ , on a z
ij
= 1 si k < l, 0 sinon.
pour les colonnes associées aux (V – 1) paramètres
c
k
ξ , on a z
ij
= 1 si k < i+j-1, 0
sinon.
Prenons un exemple pour I = J = 3. On suppose que le temps opérationnel est partitionné
en trois sous intervalles égaux ]0,
3
1
], ]
3
1
,
3
2
] et ]
3
2
,1]. On a alors

|
|
|
|
|
|
|
|
|
¹
|

\
|
τ
=
1 , 0 S ln
7 , 0 S ln
6 , 0 S ln
5 , 0 S ln
4 , 0 S ln
3 , 0 S ln
S ln
S ln
13
22
21
13
12
11
ij ij

|
|
|
|
|
|
|
|
|
¹
|

\
| ξ ξ ξ ξ ξ ξ ξ
=
1 1 0 0 1 0 0
1 1 1 1 0 1 0
0 1 0 1 0 1 0
1 1 0 1 0 0 1
0 1 0 1 0 0 1
0 0 0 0 0 0 1
Z
c
2
c
1
to
2
to
1
s
3
s
2
s
1

Si des tendances sont constantes, il convient de les cumuler en additionnant les colonnes
associées de la matrice Z. On peut de cette façon réduire le nombre de paramètres du modèle.
I.3 La recherche des tendances du triangle
La méthode suivie est ascendante. Elle consiste à partir d’un modèle construit sur la base
d’un minimum de paramètres, à ajouter autant de variables explicatives pour modéliser les
tendances liées aux variables t et τ. A chaque étape, il convient d’être vigilant sur la formation
de tendances dans les résidus d’estimation.
Spécification du modèle 60
Le premier modèle testé est composé de trois variables. Il correspond à l’hypothèse de
tendances constantes, où
s s
k
ξ ξ = ,
to to
k
ξ ξ = et
c c
k
ξ ξ = . Bien que cela soit difficilement
concevable, le paramètre
c
ξ représentatif des tendances calendaires n’est pas significatif. De
ce fait, nous essayons un modèle avec seulement deux paramètres
s
ξ et
to
ξ .
Les résultats sont les suivants :
Paramètres Estimation Ecart type p-value
s
ξ 10,7538 0,1050 < 0,0001
to
ξ 0,0477 0,0112 < 0,0001
R
2
ajusté= 0,9966 – F – statistique = 21547
Les tendances observées sur t et τ sont surlignées en figure 24. Sans surprise, elles
correspondent à celles révélées par les MCO dans la section précédente (figures 15 et 16).
Figure 24 – Graphiques des résidus – Méthode de Zehnwirth – Etape 2
1 : résidus / temps opérationnel 2 : résidus / années de survenance




3 : résidus / années calendaires 4 : résidus / valeurs prédites



Spécification du modèle 61
Un premier ajustement confirme la nullité et la non significativité du paramètre de
régression
to
2
ξ pour τ ∈ [20% ; 60%]. Après le retrait de la variable associée, on aboutit au
résultat final présenté au tableau 6.
Tableau 6 – modèle de Zehnwirth
Intervalles Paramètres Estimateurs Ecart type P-value
i ∈ ]1;17]
s
ξ 11,5848 0,1923 < 0,0001
τ ∈ ]0%;20%]
to
1
ξ -0,5726 0,1724 0,0009
τ ∈ [60%;90%]
to
3
ξ 0,2229 0,0305 < 0,0001
τ ∈ ]90% ;100%]
to
4
ξ -0,1042 0,0408 0,0107
t ∈ ]1;13]
c
1
ξ -0,0575 0,0189 0,0024
t ∈ ]13;17]
c
2
ξ 0,1196 0,0411 0,0036
R
2
ajusté. : 0,9974 - F – statistique = 9172,99
Figure 25 – Graphiques des résidus Méthode de Zehnwirth – Etape 3
1 : résidus / temps opérationnel 2 : résidus / années de survenance




3 : résidus / années calendaires 4 : résidus / valeurs prédites




Spécification du modèle 62
La figure 25 suggère que toutes les tendances sur le temps opérationnel, les années de
survenance et les années calendaires ont été capturées. En particulier, on estime:
• Une tendance baissière de e
-0,1042
– 1 = – 9,9% par intervalle de temps opérationnel,
pour τ > 0,9.
• Une tendance annuelle haussière de e
0,1196
– 1 = + 12,7% à partir de 1992 (t = 13).
L’identification de ces tendances permet de réécrire l’équation (12) :

( ) [ ] ( ) [ ] ( )
( ) ( )
+ −
+ − + − +
− ⋅ + − ⋅ +
− ⋅ + − ⋅ + − ⋅ + + =
13 1 , 12
11 6 , 5 1 , 1 ln
2 1
4 3 1
t t
l l l S
c c
to to to s
l
ξ ξ
ξ ξ ξ ξ
(13)
Par exemple pour la cellule (1,15), on a ln(S
1,15
) = 11,5274 et τ
1,15
= 0,983. Selon la
partition retenue du temps opérationnel, cette cellule est associée au 15
e
intervalle, soit l = 15.
Par ailleurs, on a t = 15.
On estime le logarithme du coût moyen de la cellule (1,15) à partir du couple (t, l) associé
et des estimations des paramètres de régression :
ln(S
1,15
) = 11,5848 - 0,5726 +5 × 0,2229 – 4 × 0,1042 – 0,0575 × 12 + 0,1196 × 2
= 11,2591.
II. La modélisation des tendances
II.1 Le temps opérationnel
La section précédente a aboutit à la détection de quatre tendances relatives au temps
opérationnel, et à aucune dans le cas de l’année de survenance. Comme le présente la figure
26, l’évolution des coûts moyens en fonction du temps opérationnel peut être représentée par
des droites avec des ruptures de gradient aux points τ = 20%, 60% et 90%.
Figure 26 – Modélisation des tendances sur i et τ

Spécification du modèle 63
Autrement dit, il est possible de :
• remplacer les 15 variables constituant la matrice Z
to
par trois variables continues
43
.
• remplacer les 16 variables disjonctives constituant la matrice Z
s
par le vecteur unité 1 .
Reprenons la notation du début de chapitre où τ
r
désigne la valeur du temps opérationnel
de la r
ème
observation de coût moyen. Dans le modèle GLM – gamma, on peut donc trouver
une certaine correspondance entre les expressions suivantes :
[ ] ( ) ( )
to to
r
s s
r r r
Z Z k f S E ξ ξ + = = exp
1
, (15)
[ ] ( ) ( ) ( ) ( ) ( )
+ + +
− ⋅ + − ⋅ + − ⋅ + ⋅ = = 9 , 0 6 , 0 2 , 0 1 exp
4 3 1
2
r
to
r
to
r
to s
r r
k f S E τ ξ τ ξ τ ξ ξ , (16)

to
r
Z désigne la r
ème
ligne de la matrice Z
to
relative à l’observation r.
La figure 27 superpose les fonctions ( )
r
f τ
1
et ( )
r
f τ
2
ajustées par GLM - gamma. La
correspondance entre les deux représentations apparaît satisfaisante.
Figure 27 – Variables continues explicatives du temps opérationnel
S
r
f
2
(t
r
)
f
1
(t
r
)
0
80 000
160 000
240 000
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
τ ττ τ
r
Sr
f2(
kr)
f1(
kr)

Le recours aux variables continues ne dégrade pas significativement la qualité
d’ajustement au sens de la déviance, qui passe de 40,70 pour le modèle (15) à 44,52 avec le
modèle (16). Par ailleurs, les paramètres de régression sont tous significatifs au sens de leur
P-value. Ces résultats indiquent que les quatre paramètres ξ
to
capturent l’essentiel de
l’information contenue par les 15 variables disjonctives du modèle (15).

43
Comme 0
2
=

to
ξ
Spécification du modèle 64
II.2 La surinflation
On conçoit que l’inflation affecte différemment chaque branche d’assurance. Autrement
dit, il est naturel de penser qu’en plus d’un taux d’inflation général, il existe un facteur
additionnel spécifique à chaque branche. Cette notion est appelée par les auteurs surinflation
44

ou inflation superposée. Dans notre cas, le phénomène de surinflation peut être assimilé à la
croissance des observations de coûts moyens calculées sur le triangle déflaté par Taylor. Cette
croissance est modélisée à partir des tendances observées sur t. A cet égard, une économie de
variables explicatives peut également être effectuée.
Dans cet objectif, deux modèles sont testés. Le premier intègre dans le modèle (16) les
tendances révélées par la méthode de Zehnwirth, avec

[ ] ( ) ( ) ( )
( ) ( )
+ +
+ + +
− ⋅ ξ + − ⋅ ξ +
− τ ⋅ ξ + − τ ⋅ ξ + τ − ⋅ ξ + ξ + =
13 t t 13
9 , 0 6 , 0 2 , 0 S E ln
r
c
2 r
c
1
r
to
4 r
to
3 r
to
1
s
r
, (17)
On note
( ) ( ) ( )
+ +
− ⋅ + − ⋅ + = 13 13
2 1
1
r
c
r r
c
r
t t t t f ξ ξ
la partie de la forme paramétrique du modèle (17) dédiée à la modélisation de la
surinflation. Le modèle (18) teste une structure paramétrique alternative f
2

r
, t
r
) avec deux
ruptures de gradient aux points t
r
= 7 et t
r
= 13. Cela consiste à substituer dans le modèle (17)
la fonction f
1
(t
r
) par la fonction
( ) ( ) ( )
+ +
− ⋅ + − ⋅ + ⋅ + = 13 7
3 2 1
2
r
c
r
c
r
c
r
t t t t f ξ ξ ξ (18)
La figure 28 superpose les fonctions ajustées f
1
(t
r
) et f
2
(t
r
) aux coefficients ξ
c
estimés à
partir des variables disjonctives du modèle (19) :
[ ] ( ) ( ) ( )
c c
r r
to
r
to
r
to s
r
Z S E ξ τ ξ τ ξ τ ξ ξ + − ⋅ + − ⋅ + − ⋅ + + =
+ + +
9 , 0 6 , 0 2 , 0 ln
4 3 1

Figure 28 – Tendances surinflationnistes

44
Dans le cas des dommages corporels, l’apparition de la surinflation peut être liée à de nombreux phénomènes déjà évoqués tels le
renchérissement des frais de soin ou la revalorisation des salaires dans le secteur de l’aide à domicile.
-1,0
-0,5
0,0
0,5
1,0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
t
disj.
f
1
(t
r
)
f
2
(t
r
)
Sér
ie1
Sér
ie2
Sér
Spécification du modèle 65
Le modèle (19) produit sensiblement les mêmes estimations des coefficients ξc que celles
calculées par MCO (figure 16). Les fonctions ajustées ( )
r
t f
1
et ( )
r
t f
2
capturent bien les
tendances des coefficients ξc estimés à partir des seize variables disjonctives.
La sélection entre ( )
r
t f
1
et ( )
r
t f
2
est faite à partir du critère AIC (Akaike Information
Criterion) mettant en balance la précision du modèle évaluée par la déviance D avec la
complexité du modèle mesurée par le nombre p de ses variables explicatives.
Avec le critère AIC, on recherche la régression qui minimise la quantité
AIC = D + 2 × p.
Le tableau 7 présente les valeurs du critère Akaike des trois modèles considérés. Au sens
de cette statistique, on aboutit à deux conclusions. D’une part, l’introduction des seize
variables disjonctives n’améliore pas suffisamment la qualité d’ajustement du modèle par
rapport aux deux modèles alternatifs. D’autre part, les deux représentations continues sont
équivalentes en termes de qualité d’ajustement.
Tableau 7 – AIC des modèles
Représentation des tendances surinflationistes Modèle AIC
Un changement dans le gradient des tendances 17 49,91
Deux changements dans le gradient des tendances 18 49,71
Variables disjonctives 19 72,92
Toutefois, comme la significativité des paramètres ξ
c
est meilleure dans le cas du modèle
(17), nous retenons ce modèle dont les caractéristiques sont présentées au tableau 8.
Tableau 8 – Modèle avec temps opérationnel, surinflation et année de survenance
Paramètres Estimateurs Ecart type P - value
s
ξ
10,4030 0,1116 < 0,0001
to
1
ξ
3,3910 0,9346 0,0003
to
3
ξ
3,9140 0,4723 < 0,0001
to
4
ξ
-7,8030 1,9464 < 0,0001
c
1
ξ
-0,0607 0,0165 0,0002
c
2
ξ
0,0793 0,0359 0,0273
En passant du modèle composé des 47 variables disjonctives au modèle (17), le recours
aux tendances sur t et τ permet de réduire le nombre de variables explicatives de 47 à 6, en
améliorant le critère AIC de 123,12 à 49,91.
Spécification du modèle 66
II.3 L’interaction entre le temps opérationnel et la surinflation
Les tendances temporelles estimées sur les coûts moyens par le modèle (17) peuvent être
assimilées à des taux de surinflation. A ce sujet, le modèle estime que les coûts moyens
déflatés croissent annuellement de 8,25% par an à partir de 1991 (t = 13). Si cette évolution
reste envisageable dans le cas des petits sinistres, elle est moins habituelle pour les gros.
Alors, si le temps opérationnel permet de distinguer les petits des gros sinistres, il peut être
intéressant de tester l’existence d’un lien entre le temps opérationnel et la surinflation.
Dans le cas des données étudiées, nous avons observé
45
des évolutions de coûts différentes
selon le temps opérationnel des sinistres. Une analyse graphique complémentaire
46
.révèle trois
profils d’évolution :
• Les coûts moyens associés à des temps opérationnels inférieurs à 20% décroissent depuis
1979 jusqu’en 1987 (t = 9) puis augmentent.
• Les coûts moyens associés à des temps opérationnels compris entre 20% et 60%
décroissent depuis 1979 jusqu’en 1987 puis se stabilisent.
• Les coûts moyens associés à des temps opérationnel supérieurs à 60% croissent sur
l’ensemble de la période observée.
Pour tester la pertinence de ces tendances, on définit trois intervalles
47
de temps
opérationnel I
v, v = 1, 2, 3
:
I
1
= { τ | τ ≤ 20%}, I
2
= { τ | 20% < τ ≤ 60%}, I
3
= { τ | τ > 60%},
auxquels on associe une fonction f
l,v
(t
r
) de structure identique à la fonction f
1
(t
r
) mais de
paramètres propres 3 , 2 , 1 ; 2 , 1 j ,
c
v , j
= ν = ξ
48
. On fait donc dépendre les paramètres de f
1
(t
r
) de τ
r
.
On construit le modèle (20) :

[ ] ( ) ( ) ( )
( )
r
c
3
2
1 v
r
v , 1
I
r
to
4 r
to
3
r
r
to
1
s
r
t t f I
9 , 0 6 , 0 2 , 0 S E ln
v r
⋅ ξ + × +
− τ ⋅ ξ + − τ ⋅ ξ + τ − ⋅ ξ + ξ + =

=
∈ τ
+ + +
, (20)
où ( ) ( ) ( )
+ +
− ⋅ + − ⋅ = 9 9
, 2 , 1
, 1
r
c
v r
c
v r
v
t t t f ξ ξ , I
z
= 1 si Z est réalisée, 0 sinon.

45
Se reporter aux figures 10 et 11.
46
Les graphiques sont présentés en annexe K.
47
On a I1 = ]0%;20%], I2 = ]20%;60%] et I3 = ]60%;100%].
48
Par exemple,
c
1 , 1 = ν
ξ est le paramètre de surinflation sur la période 1979 – 1987 (t = 9) pour les coûts moyens associés à des valeurs de τ
inférieures à 20%. De par l’unicité de la tendance croissante sur I3, on a
c
3
c
3 , 2
c
3 , 1
ξ = ξ = ξ .
Spécification du modèle 67
Un premier ajustement aux données conclut à la nullité et à l’absence de significativité du
paramètre
c
1 , 2
ξ . Ce résultat est lié à la redondance des tendances des coûts moyens des
ensembles I
1
et I
2
pour la période postérieure à 1987. Ainsi, l’’exclusion de cette tendance du
modèle conduit à estimer une croissance commune sur cette période pour les deux ensembles.
On aboutit aux résultats suivants :
Tableau 9– Modèle avec temps opérationnel, surinflation x temps opérationnel et survenance

Paramètres
s
ξ
to
1
ξ
to
3
ξ
to
4
ξ
c
1 , 1
ξ
c
2 , 1
ξ
c
2 , 2
ξ
c
3
ξ
Variables
s
z
to
z
1

to
z
2

to
z
3

c
z
1 , 1

c
z
2 , 1

c
z
2 , 2

c
z
3

Estimateurs 10,1975 2,5178 3,5656 -6,8046 0,1388 0,1838 -0,1103 0,0385
Ecart type 0,2004 1,1730 0,5573 1,9438 0,0453 0,0464 0,0346 0,0157
P-value < 10
-4
0,0318 < 10
-4
0,0005 0,0022 <0,0001 0,0014 0,0143

AIC = 51,9213
Les fonctions f
l,v
(t
r
) ajustées sont rapportées à la figure 29, pour des valeurs charnières de
temps opérationnel. Les taux de croissance liés à ces tendances sont récapitulés au tableau 10.
Figure 29 – Fonctions f
l,v
(t
r
) pour τ = 20%, 60% et 90%
-0,5
0,5
1,5
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
t
τ = 90,00% τ = 20,00% τ = 60,00%

Tableau 10 – Taux de croissance annuels estimés des coûts constants moyens
Intervalles t ≤ 9 t > 9
I
1 ( ) % 54 , 9 1 exp
c
3 , 1
c
1 , 1
− = − ξ + ξ −

( ) % 93 , 3 1 exp
c
3 , 1
+ = − ξ

I
2 ( ) % 52 , 13 1 exp
c
3 , 1
c
1 , 2
− = − ξ + ξ −

( ) % 92 , 6 1 exp
c
3 , 1
c
2 , 2
− = − ξ + ξ

I
3 ( ) % 93 , 3 1 exp
c
3 , 1
+ = − ξ

( ) % 93 , 3 1 exp
c
3 , 1
+ = − ξ

Décroissance sur I
2


Croissance sur I
1
et I
3
Spécification du modèle 68
Les figures 30 à 32 présentent les coûts moyens déflatés dans le temps et leurs estimations
par le modèle (20). Elles témoignent de la bonne qualité d’ajustement et de la capture des
tendances surinflationistes, dont les causes restent inconnues.
Dans le cadre du provisionnement, il est légitime de s’interroger sur la pertinence de
projeter la tendance baissière observée sur I
2
. Du fait de la forte significativité de
c
2 , 2
ξ , nous
décidons de maintenir cette hypothèse. Aux vues du triangle des temps opérationnel, cette
décision influe essentiellement sur le coût futur estimé au titre de la dernière survenance
49
.
Figure 30 –Coûts moyens et estimations - τ ≤ 20%.
10 000
67 500
125 000
182 500
240 000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
t
S
S estimé

Figure 31 –Coûts moyens et estimations - 20% < τ ≤ 60%.
10 000
67 500
125 000
182 500
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
t
S
S estimé

Figure 32 –Coûts moyens et estimations - τ > 60%
10 000
67 500
125 000
182 500
240 000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
t
S
S estimé


49
Par le triangle des temps opérationnels (annexe F), on voit que τ dépasse 60% en moyenne entre la 3
e
et la 4
e
année de développement.
Pour la dernière survenance, le postulat équivaut donc à anticiper une baisse annuelle des coûts moyens de 6,92% pendant deux à trois ans
Décroissance sur I2
Spécification du modèle 69
III. La modélisation des paiements partiels
III.1 L’exposé du problème
Il n’est pas rigoureux d’assimiler la quantité X
ij
/N
ij
à une prestation moyenne par sinistre
réglé. En effet, si le règlement de chaque sinistre était effectué au moyen d’un unique
paiement, cette quantité représenterait effectivement la prestation moyenne payée en (i,j).
Cependant, un sinistre peut déclencher de nombreux versements. De ce fait, les prestations
formant X
ij
sont versées au titre des N
ij
sinistres réglés en (i,j), mais également pour des
sinistres toujours ouverts à la fin de cette même période.
Considérons une année de survenance i, dont on réécrit la somme des prestations payées au
délai j

2 , 1 , j j j
X X X + = ,
comme la somme X
j,1
des prestations payées l’année de développement j en règlement de
sinistres, et de celle X
j,2
des paiements partiels liés aux sinistres en cours à la fin de l’année j.
On désigne par N
j,1
et N
j,2
le nombre de prestations payées durant l’année de
développement j respectivement au titre des règlements de sinistres et des paiements partiels.
Nous sommes dans le cas le plus courant où seules les quantités X
j
et N
j,1
sont connues. En
l’occurrence, la quantité S étudiée jusqu’ici s’exprime en ces termes avec

1 , j
j
j
N
X
S = .
La prise en compte des paiements partiels complique la modélisation des coûts moyens, au
sens où les processus X
1
et X
2
peuvent suivre des développements différents quand τ varie
entre 0 et 1. En stipulant sur la dépendance entre N
1
et N
2,
on peut identifier l’influence des
deux processus sur la définition du coût moyen S
j
.
Considérons tout d’abord N
1
et N
2
comme indépendants. Si N
1
fluctue au delà (en deça) de
son espérance, on peut s’attendre à observer une hausse (baisse) de X
1
sans pour autant que la
valeur de N
2
(et a priori celle de X
2
) ne soit affectée. Dans ce cas, on s’attend à une baisse
(hausse) de S
j
par rapport à son espérance. Autrement dit, les variations aléatoires de S autour
de son espérance seront corrélées négativement avec celles de N
1
.
Supposons que les quantités N
1
et N
2
soient corrélées positivement. Ce phénomène peut
provenir de l’absence de distinction entre règlement et paiement partiel dans les procédures de
gestion : les hausses (baisses) concomitantes de N
1
et N
2
traduisent celles de l’activité des
paiements au sens large. Dans ce cas, la corrélation négative entre S
j
et N
1j
décrite plus haut
est atténuée, voire éliminée si la valeur de N
2
est proportionnelle à celle de N
1

conditionnellement à N
1
. Et dans le cas inverse de corrélation négative entre N
1
et N
2
, l’effet
est accentué
50
.

50
Si par exemple a > 1 et b < a, on a bien
1
2 1
1
2 1
1
2 1
aN
bX aX
aN
X aX
N
X X +
>
+
>
+
.
Spécification du modèle 70
III.2 L’approche de Wright
Considérons une seule année de survenance. Pour l’année de développement j associée aux
temps réel et opérationnel t et τ, on désigne par m
τ,t
la prestation moyenne d’un sinistre réglé
et par L
j
le nombre moyen de sinistres encore en cours à la fin de l’année.
L’approche de Wright (1992) repose sur les deux hypothèses fondamentales suivantes :
• Le montant moyen d’un paiement partiel observé durant l’année j peut être exprimé en
proportion de m
τ,t
. :
E(X
j,2
) = Γ. m
τ,t
, étant donné un scalaire Γsupposé unique ∀ τ, t.
• Chaque sinistre en cours produit des paiements partiels suivant une loi de Poisson de
paramètre p. Sous cette hypothèse, la quantité N
j,2
est distribué selon une loi Poi(p.L
j
).
En supposant l’indépendance des nombres et des prestations
51
, on a

( )
( )
¦
¹
¦
´
¦
⋅ Γ ⋅ ⋅ =
⋅ =
) 22 (
) 21 (
, 2 ,
, 1 , 1 ,
t j j
t j j
m p L X E
m N X E
τ
τ

A partir de (21) et (22), on réécrit l’espérance de X
j
:
( ) ( ) ( ) ( )
pp
j t j j j j
R m N X E X E X E ξ
τ
⋅ + ⋅ ⋅ = + = 1
, 1 , 2 , 1 ,
,

1 , j
j
j
N
L
R = et ξ
pp
= p.Γ.
Autrement dit, le coût moyen a pour espérance ( ) ( )
pp
j t j
R m S E ξ
τ
⋅ + ⋅ = 1
,
. Sous ces
hypothèses, l’introduction des paiements partiels revient à appliquer un facteur multiplicatif
ξ
pp
.R
j
au coût moyen d’un sinistre réglé. Comme E(X
j,2
) = N
j,2

pp
.m
t,τ
, on remarque que le
coefficient ξ
pp
exprime l’espérance d’un paiement partiel en proportion de m
t,τ
.
Si comme dans la plupart des cas
52
, on a ξ
pp
.R
j
< 1, on peut estimer E(S
j
) par
( ) ( )
pp
j t j
R m S E ξ
τ
⋅ ⋅ ≅ exp
,
(23)
Si les R
j
sont connus, Wright préconise d’utiliser l’équation (23) pour estimer ξ
pp
. Si ξ
pp
est
significatif, on intègre la variable associée
pp
z dans le modèle. Dans ce cas, il est nécessaire
au moment du calcul des provisions de déterminer un modèle de projection des R
j
au delà des
horizons de temps observés. A ce sujet, Wright propose de modéliser R
j
à partir de τ.

51
Ce résultat élémentaire de théorie du risque est rappelé en annexe L. Sur le sujet, on peut consulter Denuit et al. (2004).
52
Le respect de cette condition dépend en fait du rythme des règlements. Si en moyenne, par exemple p = 50% des sinistres en cours
génèrent un paiement partiel correspondant à Γ = 20% du coût d’un sinistre réglé, la condition est respectée si les nombres de règlement N1,j
sont supérieurs ∀j à ξ
pp
= Γ × p = 10% du nombre des sinistres en cours.
Spécification du modèle 71
III.3 L’application numérique
Comme le modèle (20) définit une forme linéaire pour ln(m
t,τ
), il s’agit simplement
d’introduire la variable
1 , r r r
pp
r
N L R z = ⋅ = dans le prédicteur linéaire du modèle (20). Cette action
définit le modèle (24). Les valeurs des R
ij
sont déduites des triangles exposés en annexe B et
D.
L’ajustement du modèle (24) conduit à extraire la variable
to
r
z
1 ,
devenue non significative,
au sens de sa p-value. On obtient les résultats suivants :
Tableau 11 – Modèle avec année de survenance, temps opérationnel, surinflation et
paiements partiels

Paramètres
s
ξ
pp
ξ
to
3
ξ
to
4
ξ
c
1 , 1
ξ
c
2 , 1
ξ
c
2 , 2
ξ
c
3 , 1
ξ
Estimateurs 9,9955 0,0425 3,9656 -8,0606 0,1448 0,1862 -0,0936 0,0402
Ecart type 0,1991 0,0117 0,5171 1,8890 0,0430 0,0423 0,0328 0,0149
P-value < 10
-4
0,0003 < 10
-4
< 10
-4
0,0008 < 10
-4
0,0044 0,0072

AIC = 49,2015
De façon générale, le passage du modèle (20) au modèle (24) améliore la qualité de
l’ajustement au sens du critère AIC. En particulier, la significativité du paramètre ξ
pp
conduit
à conclure à l’influence des paiements partiels dans la formation des coûts moyens au sens du
modèle de Wright.
Remarquons que le modèle (24) est construit en substituant
pp
r
z à
+
− = ) 2 , 0 (
1 , r
to
r
z τ dans le
modèle (20). Du fait de la colinéarité des deux variables sur l’intervalle [0% ; 20%[, cette
substitution n’entraîne pas de variation notable dans la valeur des estimations des autres
paramètres.
Figure 33 – Ratios R
ij
des paiements partiels en fonction des τ
ij
0
5
10
15
20
25
30
35
40
0% 20% 40% 60% 80% 100%
τ ττ τ
Spécification du modèle 72
La figure 33 témoigne du niveau particulièrement bas
53
du taux de règlement sur le 1
er

intervalle de τ, et dans une moindre mesure sur le 2
e
intervalle. Ce phénomène peut être lié au
temps de traitement des règlements et des déclarations des sinistres.
Selon Wright, la significativité du coefficient ξ
pp
suffit à maintenir les paiements partiels
dans le modèle. Si on inclut l’effet des paiements partiels dans les projections de coûts, il est
nécessaire d’estimer les valeurs des R
ij
pour les valeurs futures de temps opérationnel, de telle
sorte que l’ensemble des éléments de la matrice Z soient connus. A ce sujet, la forme linéaire
R
τ
= α
0
+ α
1
/τ ajuste bien les données. La courbe ajustée est présentée à la figure 33 (en vert).
L’estimation des moindres carrés donne

¹
´
¦
=
=
5818 , 0
5181 , 1
1
0
α
α

On observe sur la figure 34 que l’introduction des rachats partiels dans le modèle (24)
corrige le profil de la courbe m
t,τ
sur l’intervalle τ ≤ 20%. Les coûts moyens estimés sont
présentés pour t = 9 de sorte à annuler l’effet du temps réel et ne faire ressortir leur évolution
qu’en fonction du temps opérationnel.
Figure 34 – Estimation des coûts moyens
modèle (20) contre modèle (24) - t = 9
20 000
70 000
120 000
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
τ ττ τ
modèle (20)
modèle (24)

Ce phénomène est lié à la décroissance monotone du facteur ( )
pp
j
R exp ξ ⋅ et à la forte
baisse des R
j
sur cet intervalle.
Notons que la valeur estimée de ξ
pp
n’est pas en contradiction avec l’interprétation
théorique donnée par Wright : l’auteur fait référence à une valeur de c = 10%, associée aux
paramètres Γ = 50% et p = 20%. En outre, une interprétation de la baisse des coûts par sinistre
réglé est possible sur l’intervalle de temps opérationnel [0% ;20%].

53
Pour j = 1, on a en moyenne Ri1 = 14, soit un taux de règlement de 1/14 ≅ 7%. Le même taux passe à 30% en j = 2, pour se stabiliser
autour de 40% par la suite (soit Rij ≅ 2,5).
Spécification du modèle 73
Dans tous les cas, l’introduction des paiements partiels dans la modélisation fournit une
interprétation fortuite à la baisse du coût moyen par sinistre réglé observée sur les 1
ères
valeurs
de temps opérationnel :
L’observation de la figure 33 rappelle que le taux de règlement 1/R est particulièrement
faible au début de l’écoulement du risque. Cette période correspond à la première année de
développement, ou de façon équivalente à des valeurs de temps opérationnel inférieures à
20%. Par la suite, le taux de règlement se stabilise au-delà de τ ≥.20%.
Or, les paiements partiels accroissent le niveau de S
j
en augmentant son numérateur X
j
,
sans contrepartie au dénominateur N
j,1
. Si le taux de règlement croît fortement comme c’est le
cas sur l’intervalle ]0%,20%], il est possible d’observer une décroissance du coût moyen par
règlement, même si la prestation individuelle moyenne m
t,τ
reste stable.
Ce phénomène est illustré par la figure 35. Pour une valeur de t donné, elle présente les
coûts moyens par sinistre en fonction du temps opérationnel, avec et sans rachats partiels
54
.
Les coûts sont estimés à partir du modèle (24) et de valeurs R
τ
calculées à partir des
estimations des coefficients α
0
et α
1
.
Figure 35 – Estimation des coûts moyens
modèle (24) - t = 9
20 000
70 000
120 000
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
τ ττ τ
sans paiement partiel
avec paiement partiel

Le modèle (24) explique donc la décroissance des coûts moyens S
j
sur les deux 1
er

intervalles de temps opérationnel par une forte baisse de la proportion des paiements partiels
dans l’ensemble des prestations. En début de partie, une deuxième possibilité d’explication
avait été énoncée : il s’agissait de considérer que les règlements sans suite intervenaient
majoritairement les 1
ères
années
55
. Aucune information ne permet de valider cette hypothèse.
Au même titre, il est impossible de juger du rôle des paiements partiels dans la baisse des
coûts moyens pour les valeurs élevées de τ, au sens où les deux termes de E(S
j
) décroissent
pour les valeurs élevées de τ. D’une part, le facteur exponentiel décroit du fait de la baisse des
R
ij
avec τ. D’autre part, la figure 35 confirme la baisse de m
t,τ
pour les valeurs élevés de τ.

54
On modélise les coûts moyens sans rachats partiels en soustrayant le facteur ξ
τ
⋅ R du prédicteur linéaire du modèle (24)
55
Les règlements sans suite gonflent le dénominateur de ( )
2 , 1 , j j j j
N N X S + = , sans contrepartie au numérateur (on a Nj,1 = 1 et Xj = 0).
Tous paramètres de Sj égaux par ailleurs, on obtient la décroissance de Sj en supposant des règlements sans suite croissant avec j.
Spécification du modèle 74
IV. La sélection du modèle final
A ce stade, il s’agit de choisir entre les modèles (20) et (24). Comme la substitution de
pp
r
z
à
to
r
z
1 ,
ne fait que peu varier les estimations des autres paramètres du modèle, nous sommes
tenté de conclure que l’amélioration du critère AIC du modèle (20) au modèle (24) est liée à
au meilleur ajustement des coûts moyens sur le premier intervalle de temps opérationnel.
Cette conclusion semble confortée par les figures 36 et 37, confrontant ces coûts et leurs
estimations par les deux modèles.
Figure 36 –Coûts moyens et leurs estimations
modèle (20) sans paiements partiels − τ ≤ 20%.
10 000
67 500
125 000
182 500
240 000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
t
S
S estimé

Figure 37 –Coûts moyens et leurs estimations
modèle (24) avec paiements partiels− τ ≤ 20%.
10 000
67 500
125 000
182 500
240 000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
t
S
S estimé

Il convient cependant de relativiser la portée sémantique de ce résultat. En ce sens, Wright
tempère l’importance que l’on doit accorder à la vérification des hypothèses sous-jacentes à la
modélisation des paiements partiels, qu’il considère avant tout comme un outil d’ajustement à
confronter aux données.
Le choix du modèle (20) est motivé par ce même pragmatisme. L’observation de la figure
34 rappelle que les deux modèles partagent sensiblement les mêmes estimations pour les
intervalles de temps opérationnel supérieurs à 20%.
Spécification du modèle 75
Dans le cadre du provisionnement, le meilleur ajustement des « premiers » coûts moyens
est de peu d’influence, dès lors que les temps opérationnels des prestations futures à estimer
sont dans leur grande majorité au-delà de 20%. Alors, le maintien des paiements partiels dans
le modèle alourdirait inutilement la procédure de calcul des provisions, en ce sens qu’il
nécessiterait la projection des R
τ
.
Dans le cadre du provisionnement, nous décidons donc de retenir le modèle (20), dont les
caractéristiques sont rappelées au tableau 12 :
Tableau 12 – Variables explicatives et paramètres associés
Modèle (20)
Modélisation Paramètres Observations z
ij

Année de survenance
s
ξ 1 z
s
r
⋅ =
Temps opérationnel
to
1
ξ ( )
+
τ − =
ij
to
1 , r
2 , 0 z
Temps opérationnel
to
2
ξ ( )
+
− = 6 , 0
3 , ij
to
r
z τ
Temps opérationnel
to
3
ξ
+
− ⋅ = ) 9 , 0 (
4 , ij
to
r
z τ
Surinflation
c
1 , 1
ξ ( )
+
∈ τ
− × =
r I
c
1 , 1 , r
t 9 I z
1 r

Surinflation
c
2 , 1
ξ ( )
+
∈ τ
− × =
r I
c
2 , 1 , r
t 9 I z
2 r

Surinflation
c
2 , 2
ξ ( )
+
∈ τ
− × = 9 t I z
r I
c
2 , 2 , r
2 r

Surinflation
c
3
ξ
r
c
3 , r
t z =

Validation du modèle 76
CHAPITRE IV. VALIDATION DU MODELE PAR DES TESTS STATISTIQUES
I. Les points de validation
Le choix du modèle et les conclusions qui en sont issues dépendent exclusivement des
données observées. Une préoccupation majeure de la modélisation est alors de juger de la
fiabilité de ces conclusions. Différentes causes peuvent venir jeter un doute sur leur
pertinence, dont les plus importantes sont :
• L’inadéquation des hypothèses formulées sur le processus générateur des données :
Le premier point traite de la pertinence d’utiliser le modèle retenue au regard des données
à modéliser. Si les hypothèses apparaissent cohérentes, on parle de modèle bien spécifié. Sans
connaissance a priori du processus étudié, la bonne spécification du modèle ne peut être testée
qu’à partir des données disponibles. Ce point est traité dans la section II.
• Le défaut de « justesse » des données de l’échantillon :
Les données disponibles peuvent ne pas refléter le processus à modéliser. Autrement dit, il
est possible de statuer à la bonne spécification d’un modèle à partir d’un échantillon pas
réprésentatif. Dans notre cas, il est impossible de statuer sur cette problématique étant donné
notre méconnaissance du portefeuille. Ce point ne sera donc pas étudié.
• La sensibilité du modèle à de faibles variations des données :
Les données historiques ne constituent qu’un échantillon du processus à modéliser. Or, cet
échantillon peut inclure des observations qui sans être erronées influent de façon « exagérée »
sur l’ajustement du modèle aux données. On peut par exemple s’interroger sur la pertinence
de garder dans l’échantillon d’ajustement une observation de valeur extrème et de faible
fréquence. A ce sujet sont introduit deux notions : celle de point atypique et celle de point
influent. Leur étude est l’objet de la troisième section.
En fin de chapitre, nous testons la crédibilité de notre principal outil de diagnostic dans la
construction du modèle de provisionnement : le test de la déviance. Les résidus utilisés dans
l’annalyse graphique sont les résidus de déviance normalisés.
II. Les tests sur la spécification du modèle
La pertinence d’utiliser le modèle (20) dépend de la crédibilité d’hypothèses formulées a
priori sur le processus générateur des coûts moyens. On peut citer trois hypothèses centrales :
• Hypothèse n°1 : La fonction de lien lie l’espérance des coûts moyens avec le prédicteur
linéaire. A ce sujet, l’adéquation de la fonction logarithmique a été confirmée en amont.
• Hypothèse n°2 : Le modèle suppose une dépendance entre les coûts moyens et les
variables constituant le prédicteur linéaire.
• Hypothèse n°3 : Un lien est supposé entre la variance et l’espérance des coûts moyens.
Validation du modèle 77
Test de l’hypothèse n°2
Le test de l’hypothèse n°2 est global. Il doit permettre de confirmer qu’il n’existe pas de
problème majeur dans la modélisation de la dépendance entre les coûts moyens et les
variables explicatives. Ainsi, il s’agit de vérifier globalement tant la pertinence des variables
explicatives que la forme de leur dépendance supposée avec la variable réponse.
En pratique, les figures 38 à 41 ne doivent pas faire apparaître de structure non aléatoire
qui témoignerait qu’il existe des tendances dans les données non capturées par le modèle. La
reconnaissance d’une tendance dans les résidus peut révéler des problèmes très divers
56
. On
rappelle que cette contrainte est également d’ordre théorique, dès lors que la qualité globale
des résultats dépend en régression de l’indépendance des résidus et des variables explicatives.
Figure 38 – Résidus contre estimations

Figure 39 – Résidus contre temps opérationnels


Figure 40 – Résidus contre années de survenance

Figure 41 – Résidus contre années calendaires




On constate sur les figures 39 à 41 une horizontalité satisfaisante du centre des boîtes à
moustaches
57
, témoignant de l’absence de tendances des résidus en fonction des variables
explicatives.

56
oubli de variables explicatives, mauvaise définition de la fonction variance et/ou du lien entre la variable réponse et une/des variables
explicatives, inadéquation d’un modèle unique sur l’ensemble des valeurs de coûts moyens, ….
57
Les extrémités de la boîte matérialisent les 25
e
et 75
e
quantiles, celles de chacune des barres les valeurs extrêmes, et le point la médiane.
Validation du modèle 78
Par ailleurs, la lecture de la figure 38 de gauche à droite montre que les résidus sont
relativement stables en moyenne et en volatilité. Autrement dit, ils semblent indépendants de
la valeur des estimations. Ce constat témoigne de la qualité globale de la régression, en ce
sens que les estimations ne semblent pas biaisées pour certaines valeurs de coûts moyens. De
façon générale, on ne peut donc pas statuer à un problème de spécification du modèle.
Test de l’hypothèse n°3
Quant à la pertinence du choix de la fonction de variance, elle est testée à partir de la
propriété d’homoscédasticité des résidus. Rappelons que l’hypothèse d’homoscédasticité des
résidus, soit celle de la constance de leur variance, est centrale en économétrie. En théorie, sa
transgression biaise les écarts type des estimations des paramètres et altère la fiabilité des tests
d’inférence statistique construits à partir des écarts types (t-test, F-test,…).
Dans la pratique des GLM, la constance des écarts types des résidus normalisés dépend de
la validité de la relation
Var(S
r
) = φ.V(µ
r
)
sur l’étendue de chaque variable explicative. Autrement dit, le lien supposé entre la
moyenne et la volatilité des coûts moyens ne doit pas dépendre des variables explicatives.
Dans notre cas, ce lien doit en particulier être stable pour toutes les valeurs de τ.
Le test d’homoscédasticité des résidus constitue donc un outil supplémentaire pour
conforter le choix de la loi utilisée pour modéliser les S
r.
Ce test peut être effectué
graphiquement à partir des boîtes à moustaches des résidus de déviance : on statue à leur
homoscédasticité si les boîtes ne sont pas de taille « trop » hétérogène. Au regard des figures
39 à 41, le diagnostic n’apparaît pas immédiat.
Pour vérifier l’hypothèse d’homoscédasticité des résidus, on emploie le test de White. Ce
test éprouve le pouvoir explicatif des variables explicatives sur les carrés des résidus.
Formellement, White définit la régression auxiliaire non contrainte

∑∑ ∑
= = =
⋅ ⋅ + ⋅ + =
p
i
p
j
j i ij
p
j
j j
z z c z b a e
1 1 1
1
2
(25)
où e est le résidu d’estimation issu du modèle (20) et z
j
une de ses p variables explicatives.
L’hypothèse d’homoscédasticité testée est
H
0
: b
1
= …=b
p
= c
11
= … = c
pp
= 0.
Le test de White est construit à partir d’un F-test de significativité globale de l’équation
(25). Si la p-value de la statistique de test est supérieure au seuil défini, on ne peut rejeter
l’hypothèse H
0
d’homoscédasticité des erreurs. Ici, la statistique du test égale à 30,89 est
associée à une p-value de 9,83%
58
. Au seuil de 5%, on ne peut rejeter l’hypothèse H
0
.

58
On rappelle que la statistique du test est basée sur le coefficient de détermination R
2
de l’équation de régression auxiliaire. Sous H0, elle
est distribué approximativement selon un
2
1 , − −k n k
χ , où k est le nombre de variables explicatives du modèle auxiliaire.
Validation du modèle 79
III. Le test de robustesse
En ce qui concerne les points atypiques, l’observation des figures 38 à 41 permet de
constater l’existence de valeurs « anormales » (> 2). Ces résidus présentés au tableau 13
correspondent à des observations de coûts moyens dont les montants sont inhabituellement
bas compte tenu des valeurs de temps opérationnel et réel qui leur sont associées.
Tableau 13 – Valeurs atypiques – modèle (20)
i J
τ
S
r
r

µ
) (DS
r
e
1 11 0,969 7 116,6 93 498 ,66 -3,85
3 13 0,989 9 557 102 247,24 -3,67
3 14 0,992 15 013,33 105 233,43 -3,19
3 15 0,999 17 692,44 106 547,36 -3,02
2 12 0,987 25 627,82 94 934,60 -2,30
1 13 0,991 27 768,77 94 934,60 -2,17
3 4 0,478 134 428,29 93 360,38 2,04
2 14 0,993 236 510 100 573,51 2,08
Cela conduit à s’interroger sur la « justesse » de ces observations plus forcément
représentatives du processus analysé. La question est bien illustrée par la notion de point
aberrant. Un seul point aberrant peut biaiser le modèle jusqu’à rendre ses prédictions erronées,
même dans des régions éloignées de l’observation aberrante. Notre méconnaissance du
portefeuille ne permet pas de répondre à cette dernière question. On remarque toutefois que
les coûts de montant inhabituel sont associés à d’anciennes survenances.
Afin de statuer sur leur maintien dans l’échantillon d’ajustement, nous étudions leur
influence. Par définition, un point influent pèse sur le modèle de telle sorte que si on l’enlève,
alors l’estimation des coefficients sera fortement changée. Une mesure classique d’influence
est celle de Cook qui est une distance entre le vecteur ξ des coefficients estimé avec toutes
les observations et celui ) ( r − ξ estimé avec toutes les observations sauf une.
La distance de Cook pour l’observation r se mesure à l’aide de la métrique (Z

WZ) :
( ) ( )
|
¹
|

\
|
− − ⋅ ⋅
|
¹
|

\
|
− − ⋅ =
∧ ∧ ∧ ∧
ξ ξ ξ ξ r WZ Z r
p
D
r
'
'
1
.
L’expression de la matrice H est rappelé en annexe
59
.

59
On rappelle en annexe I que l’algorithme d’estimation fait une régression linéaire à chaque étape et s’arrête à l’étape finale où le processus
est stationnaire : ( ) Y W Z Z W Z
1 '
1
1 ' −


⋅ = ξ . Autrement dit, on a Y H Z ⋅ = ⋅ =

ξ µ , où H est la matrice de projection de Y sur Z.
Validation du modèle 80
De façon générale, si la distance de Cook est grande pour une observation et/ou très
différente des autres, alors le point à l’étude est considéré comme influent. Il convient alors
d’analyser les raisons de son influence (erreur de mesure, différence dans la population,…).
Pour obtenir des conclusions robustes, il est alors préférable de refaire l’analyse sans ce point.
On calcule les distances de Cook à partir des estimations de φ ,
r
µ , et ( )
2
r r
V µ µ = . Comme
la distance de Cook est normée, une valeur supérieure à un est suspecte. Dans le test, nous
utilisons une limite plus « sévère » de 4/(n-p-1) préconisée par certains auteurs
60
. Compte tenu
du seuil de détection fixé à 4/(150-8-1) ≅ 0,03, sept points ressortent comme influents.
Figure 42 – Distances de Cook– modèle (20)

Le tableau 14 présente les observations influentes au sens de Cook et le coût moyen S
τ,moy

observé dans leur intervalle de temps opérationnel depuis t = 1.
Tableau 14 – Points influents – modèle (20)
Obs.
i j τ S
r S
τ,moy
D
r
147 15 3 0,583 39 410,54 47 336,53 0,23
141 14 1 0,022 129 732,60 76 089,43 0,10
34 3 4 0,478 134 428,30 44 295,49 0,10
29 2 14 0,994 236 510,00 108 499,34 0,08
30 2 15 0,996 222 998,50 108 499,34 0,06
58 4 13 0,994 213 777,50 108 499,34 0,04
88 7 4 0,576 68 338,15 47 336,53 0,04

60
J. Confais (UPMC-ISUP), M. LeGuen (CNRS-CES-MATISSE-UMR8174) (2009), « Premier pas en régression linéaire avec SAS ».
Validation du modèle 81
Les points influents détectés correspondent à des observations dont les valeurs sont
anormalement élevées compte tenu du temps réel et du temps opérationnel qui leur sont
associés. Des points aberrants du tableau 13, seules deux observations sont considérées
influentes. Ces observations apparaissent en gras dans le tableau 14.
Les résultats obtenus en soustrayant de l’échantillon d’ajustement les sept observations
influentes sont présentés au tableau 15. On constate une amélioration logique du critère AIC.
Tableau 15 – Modèle (20) – ajustement sans les points influents

Paramètres
s
ξ
to
1
ξ
to
2
ξ
to
3
ξ
c
1 , 1
ξ
c
2 , 1
ξ
c
2 , 2
ξ
c
3 , 1
ξ
Estimateurs 10,1639 2,2274 3,9225 -9,2843 0,1528 0,1749 -0,1281 0,0364
Ecart type 0,1930 1,1780 0,5420 1,9302 0,0434 0,0437 0,0362 0,0148
P-value < 10
-4
0,0486 < 10
-4
< 10
-4
0,0004 < 10
-4
0,0004 0,0138

AIC = 46,2063 - φ = 4,8947
-1

Consécutivement au retrait des sept points influents, on observe que :
• la correction la plus sensible intervient sur le paramètre
to
3
ξ qui passe de -6,8 à -9,28.
Autrement dit, la plus forte correction des paramètres du modèle s’opère sur
l’estimation des coûts moyens de fort temps opérationnel. Cette correction est liée à la
soustraction de l’échantillon d’ajustement des observations n°29, 30 et 58.
• les taux annuels de surinflation sont révisés à 3,70% sur les intervalles de temps
opérationnel I
1
et I
3
et à - 8,75% sur I
2
61
.
Notons que si nous extrayons les sept points influents de l’échantillon d’ajustement, nous y
maintenons les points atypiques non influents
62
faute de pouvoir justifier de leur retrait.
IV. Le test sur la validité de la déviance
Dans la construction du modèle, nous utilisons essentiellement le test de la déviance
comme outil de diagnostic. Ce test utilisé dans la sélection des variables explicatives et la
comparaison des modèles fait l’hypothèse que les résidus de déviance ajustés sont issus de
distributions normales. Si tel n’est pas le cas, les conclusions qui en sont issues peuvent
devenir vides de sens. Nous testons la normalité des erreurs à partir du QQ-plot des résidus.
Mis à part quatre observations en anomalie
63
, on constate que les points sont alignés autour
de la droite passant par les 1
er
et 3
e
quartiles. Les résidus, a priori centrés, passent par le point
(0,0). Dans ce cas, il est possible de valider l’hypothèse de normalité.

61
e
0,0364
– 1 = 3,70% et e
-0.1281+0.0364
-1 = -8,75%.
62
Il s’agit essentiellement des quatre points atypiques soulignés à la figure 43. Ces observations correspondent aux quatre premières valeurs
atypiques mentionnées en gras dans le tableau 13
63
Ces observations visionnables à la figure 43 correspondent aux quatre premières valeurs atypiques mentionnées dans le tableau 13.
Validation du modèle 82
Figure 43 – QQ plot des résidus de déviance – modèle (20)

V. Conclusion : la validation du modèle
Le tableau 16 présente les résultats du modèle (20) ajusté après le retrait des points
influents :
Tableau 16 – Rapports des estimations sur les observations de coûts moyens
64

modèle (20)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
1979 0,98 1,00 1,11 1,16 1,53 0,81 1,73 0,68 0,65 2,23 12,05
a
1,32 2,95
a
0,59 0,84
1980 0,90 1,13 1,10 0,66 1,16 1,24 1,09 0,94 0,63 2,00 0,72 3,24
a,i
0,58 0,36
i,a
0,40
i
1981 0,72 1,21 0,82 0,41
i,a
2,64 0,78 0,77 1,00 1,15 0,85 1,01 2,17 10,19
a
6,62
a
5,53
a
1982 1,37 1,31 0,60 1,14 0,86 0,67 1,21 1,59 1,07 0,98 0,48 1,20 0,42
i
1,03
1983 1,28 1,12 1,72 0,98 0,57 0,91 0,80 1,89 2,73 1,27 0,48 1,21 1,28
1984 0,85 1,53 1,04 0,61 0,60 0,69 0,55 2,49 0,54 0,98 0,61 0,53
1985 1,26 1,41 1,06 0,48
i
0,69 1,06 2,72 1,03 1,35 0,75 0,65
1986 1,28 1,28 0,88 0,60 0,97 1,89 0,77 1,35 0,91 1,72
1987 1,25 1,29 1,31 0,61 1,67 0,70 1,15 0,72 0,76
1988 0,76 1,44 1,00 1,44 1,02 1,17 1,34 1,26
1989 1,14 1,27 1,30 0,81 0,90 0,93 1,22
1990 0,70 1,29 0,73 1,56 0,84 0,90
1991 1,02 1,21 0,86 1,53 0,94
1992 0,49
i
1,03 1,85 0,66
1993 0,77 1,06 0,44
i

1994 1,43 1,00
1995 1,83
Rappelons la démarche menant à sa constitution. L’analyse des données a aboutit à une
conclusion principale, à savoir qu’il existait un lien entre le volume des prestations payées et
le nombre des règlements de sinistres. Par ailleurs, l’analyse a conclut à l’instabilité des
cadences de règlements dans le temps.

64
Les observations annotées d’un exposant « i » et « a » correspondent respectivement à des points influents et à des valeurs atypiques.
Validation du modèle 83
Ce constat nous a conduit à intégrer deux notions dans la modélisation des prestations :
• D’une part, nous utilisons une approche par les coûts moyens. Cette méthode nous permet
de tenir compte de la dépendance entre les prestations et les nombres de règlements.
• D’autre part, nous modélisons les coûts moyens non pas en fonction du temps mais selon
l’ordre d’apparition des règlements. Autrement dit, nous substituons dans la modélisation
le temps opérationnel τ à l’année de développement j. Cette méthode nous permet de
modéliser des classes de coûts moyens plus homogènes.
Nous avons utilisé la notion de paiement partiel. Il s’est agit de distinguer la prestation
moyenne m d’un sinistre réglé du ratio S de coût moyen par sinistre réglé :
Il est naturel d’envisager un lien positif entre m et la durée de règlement des sinistres. Sur
ce point, l’introduction des paiements partiels permet de justifier la baisse contre intuitive de
S au fur et à mesure que τ pour des valeurs inférieures à 20%. Cette baisse est justifiée par
celle de la proportion des paiements partiels dans les prestations totales. Pour les valeurs de τ
supérieures à 90%, il n’a en revanche pas été possible de justifier la baisse de S et m.
Au final, le modèle établit une relation entre l’espérance du coût moyen S et deux
variables : le temps opérationnel et le taux de surinflation, définissant la croissance de m au-
delà de l’inflation générale. Pour plus de robustesse, nous choisissons d’utiliser le moins de
variables explicatives possibles et modélisons m en fonction de tendances linéaires.
En ce qui concerne le temps opérationnel τ, nous aboutissons à l’identification de quatre
tendances : les coûts moyens baissent avec τ pour les valeurs inférieures à 20%, se stabilisent
ensuite pour les valeurs de τ inférieures à 60%, puis augment jusqu’à τ = 90% pour rebaisser
ensuite.
En ce qui concerne la surinflation, les tendances identifiés par le modèle de Zehwirth ont
été révisées en segmentant l’analyse en fonction du temps opérationnel. Autrement dit, une
interaction a été détectée entre la surinflation des coûts moyens et leur profil, identifié par leur
temps opérationnel. Ainsi, nous avons estimé que les coûts moyens déflatés croissaient de
3,7% par an à partir de 1987, sauf dans le cas des sinistres réglés entre la 3
e
et la 5
e
année
65
, en
baisse de 8,75% par an. Même si il nous est impossible de donner une signification à ce
phénomène (sinistres sans suite,…), il caractérise bien les données étudiées
66
.
En fin de partie, des tests de validation du modèle ont été menés. En particulier, ces tests
ont conduit au retrait de deux points atypiques, trop influents au sens de la distance de Cook.
Cette opération a eu pour résultat d’accentuer la tendance baissière des coûts moyens les plus
élevés (τ > 90%). De façon plus générale, les résultats de ces tests n’ont permis de remettre en
cause ni la qualité globale du modèle, ni la fiabilité des outils statistiques utilisés dans sa
conception. En effet, d’une part aucun problème de spécification n’a pu être décelé, et d’autre
part, les hypothèses sous jacentes au modèle (20) n’ont pu être infirmées sur la base de
l’échantillon des coûts moyens étudié.

65
Ces sinistres sont réglés dans l’intervalle de temps opérationnel [20%,60%[
66
Se reporter aux figures en annexe K.
Calcul du Best Estimate des PSAP 84
PARTIE III. LA MISE EN ŒUVRE DES CALCULS


Il s’agit désormais d’utiliser le modèle de provisionnement défini dans la partie II à deux
fins : le calcul du Best Estimate des PSAP et celui du risque de provisionnement.
Le premier chapitre est dédié au calcul du Best Estimate de la provision pour sinistres. Son
obtention requiert de répondre au préalable aux deux points suivants :
• Le modèle étudié estime le coût moyen des prestations versées à partir de leurs temps
réel et opérationnel. Si les temps opérationnels des futurs règlements sont par définition
connus, leurs dates restent à estimer.
• Si le modèle intègre le calcul de l’inflation sectorielle contenue dans les prestations
futures, il ne prévoit pas l’estimation de l’inflation générale qui nécessite de se doter
d’un modèle ad hoc.
Le second chapitre est consacré au calcul du risque de provisionnement. L’approche de
calcul privilégiée est de type simulatoire dans un cadre Bootstrap :
• Dans un premier temps, nous adaptons la méthode classique du Bootstrap au modèle de
provisionnement et calculons le risque ultime. Ensuite, l’algorithme est adapté au
calcul du risque à un an.
• Enfin, les résultats obtenus sont comparés à celui issu de l’application de la formule
standard.


Calcul du Best Estimate des PSAP 85
CHAPITRE I. LE CALCUL DU BEST ESTIMATE DES PSAP
I. Hypothèses et méthode
I.1 Hypothèses
Nous évaluons le Best Estimate des provisions pour sinistres à partir du modèle (20). Cette
section recense les hypothèses sous jacentes à ce calcul.
• Nombre ultime des sinistres
Le calcul des PSAP passe par l’estimation de la prestation à payer au titre de chaque
sinistre restant à régler. Il requiert donc de connaître de façon certaine le nombre ultime de
sinistres pour chaque survenance. A cet égard, nous utilisons les estimations de Taylor (2000).
Nous rappelons que nous considérons par simplification le nombre ultime de sinistres comme
certain, malgré l’incertitude évidente de cette information en date de calcul.
• Effet des paiements partiels
Le modèle (20) est construit à partir des observations de coûts moyens. En d’autres termes,
ses projections estiment les coûts moyens futurs et non les prestations futures. Notre
utilisation du modèle requiert donc d’assimiler les coûts moyens aux prestations individuelles.
Nous avons vu que les deux notions pouvaient diverger dans le cas de paiements partiels
importants. En d’autres termes, assimiler le coût moyen S à la prestation individuelle m
suppose de considérer négligeable l’effet des paiements partiels sur les coûts moyens. Dans
notre cas, nous justifions cette hypothèse par les résultats de la partie II, incitant à supposer la
similitude entre m et S pour les valeurs de τ considérées dans la projection des règlements
67
.
• Espérances des prestations individuelles
Dans le calcul des provisions, nous assimilons les extrapolations de coûts moyens du
modèle (20) à des prestations individuelles. En omettant l’existence des paiements partiels,
réécrivons la somme des prestations payées en j au titre de i :


= ν
ν
=
ij
N
1
ij ij
X X
où les
ν
ij
X ,
ν = 1, …, Nij
désignent les prestations payées au titre des N
ij
sinistres réglés.
Nous supposons, pour ν = 1, …, N
ij
, que l’espérance des
ν
ij
X ne dépend que des valeurs t et
τ associées au couple (i,j) : ( )
τ τ
ν
, , t t ij
S m X E = = . Cette hypothèse est approximative car les N
ij

sinistres réglés n’ont pas la même espérance. Cependant, elle reste crédible si m
t,τ
ne varie pas
trop chaque année j. Plus précisément, si τ désigne le temps opérationnel moyen observé
durant l’année de développement j, l’hypothèse est exacte si m
t,τ
est linéaire en t et τ.

67
En particulier, le modèle (24) intégrant les paiements partiels aboutit à des estimations de S et m très proches pour les valeurs de τ ≥ 0,2
(se reporter à la figure 35).
Calcul du Best Estimate des PSAP 86
• Indépendance des sinistres
Supposons que les N
ij
sinistres soient indépendants et de même espérance m
t,τ
.. Si X
ij
est la
somme de N
ij
sinistres indépendants, le coût moyen des N
ij
règlements a pour espérance
( )
τ
= |
¹
|

\
|
=
, t
ij
ij
ij
m
N
X
E S E
Dans le calcul du Best Estimate, nous pouvons alors, au prix des hypothèses formulées,
assimiler les estimations des espérances de coûts moyens issues du modèle (20) avec celles
des prestations individuelles. On vérifie sous l’hypothèse d’indépendance des sinistres (1) que

( ) ( )
( ) ( )
( ) ( )
( )
τ
τ
ν
ν
ν
ν
,
0
,
1 0
0 1
) 1 (
0
1
1
t
k
ij t
k
ij
k
ij
k
k
ij ij
k
ij
ij
ij ij
ij
ij
N ij
m
k N P m
X E
k
k N P
X E
k
k N P
k N
k
X
E k N P N
N
X
E E S E
ij
=
= ⋅ =
⋅ ⋅ = =
⋅ ⋅ = =
|
|
¹
|

\
|
= ⋅ = =
|
|
¹
|

\
|
|
|
¹
|

\
|
=

∑ ∑
∑ ∑


=
=

=

= =

=

I.2 Les étapes de calcul
En conformité avec les préconisations de l’ACAM (ACAM, 2007), la procédure de calcul
du Best Estimate comporte trois étapes :
l’estimation en monnaie constante des prestations futures
le calcul de l’inflation contenue dans ces prestations
l’actualisation des prestations à la courbe des taux sans risque.
• Meilleures estimations des prestations futures
Au travers de l’actualisation et du calcul de la croissance (sur)inflationniste des prestations
restant à payer, le calcul du Best Estimate dans le cadre du modèle (20) requiert d’estimer la
date des règlements futurs. Or, ce modèle n’estime pas cette information. Une solution simple
à cette problématique est présentée dans la section suivante. Elle passe par l’approximation
d’un lien entre t et τ à partir d’une fonction continue H telle que t = H(τ).
Ainsi, l’objectif consiste à associer à chaque règlement futur une date ( ) τ

H fonction du
temps opérationnel τ qui lui est associé. Une fois la fonction H définie et ses paramètres
estimés, le calcul en monnaie constante des prestations futures devient trivial.
Calcul du Best Estimate des PSAP 87
En effet, plaçons-nous en t
0
, date de calcul de la provision. On désigne par
0 , i
N le nombre
de sinistres réglés à cette date parmi les N
i
sinistres survenus au titre de la survenance i et par
i 0 , i 0 , i
N N = τ le temps opérationnel du dernier sinistre réglé.
Les temps opérationnels moyens
j , i
τ des ( )
0 , i i i
N N − = ω sinistres à régler sont
68


i
i
, i
i
0 , i
2 , i
i
0 , i
1 , i
N
5 , 0 N
, ,
N
5 , 1 N
,
N
5 , 0 N
i

= τ
+
= τ
+
= τ
ω
L , (1)
auxquels on associe les temps réels
i
, i 1 , i
t , , t
ω
L .
Des
j , i
τ et de l’estimation de H, on déduit du modèle (20) les meilleures estimations des
prestations associées aux règlements futurs
69
. En effet, l’algorithme du score fournit les
estimateurs du maximum de vraisemblance (e.m.v.) du vecteur des paramètres ξ et de φ .
Par invariance fonctionnelle du maximum de vraisemblance, on en déduit les e.m.v.
( ) |
¹
|

\
|
|
¹
|

\
|
τ τ η =
∧ ∧
τ

j , i j , i
j , i
1 H , exp m des ( )
j , i j , i
S E m
τ τ
= pour
i
, , 1 j ω = L ,
où ) , (
∧ ∧ ∧
φ ξ η = η désigne le prédicteur linéaire estimé dans la partie II.
Il en résulte un e.m.v de l’espérance de la somme des prestations futures associées aux I
années de survenance :

∑ ∑
=
τ = τ
τ = τ
τ

ω
I
1 i
1
i
, i
1 , i
m
• Inflation future
Nous appliquons les conditions d’inflation future aux projections de prestations estimées
par le modèle (20). Dans cet objectif, nous nous dotons d’un modèle d’inflation ad hoc, à
partir duquel il est possible au travers d’un indice CP(H(τ)) en base t
0
, d’estimer l’inflation
générale moyenne courant entre chaque date de règlement futur H(τ) et la date de calcul t
0
.
A partir de CP(H(τ)), on exprime en monnaie réelle les estimations des prestations futures:

( )
j , i j , i j , i
m CP m
1 H 2 τ

τ

τ

⋅ =

pour
i
, , 1 j ω = L .

68
Pour j = 1, on a bien
i
0 , i
i
0 , i
i
0 , i
N
5 , 0 N
N
1 N
N
N
2
1
1 , i
+ +
=
|
|
¹
|

\
|
+ ⋅ = τ .
69
En supposant que chaque règlement futur déclenche le paiement d’une prestation, on néglige l’effet des sinistres futurs sans suite.
Calcul du Best Estimate des PSAP 88
• Actualisation
En conformité avec les préconisations de l’ACAM, nous utilisons une courbe déterministe
des taux, en négligeant les dépendances éventuelles entre taux d’intérêt et prestations. Cette
dernière étape nous permet d’aboutir à l’expression du Best Estimate en t
0
de la provision
pour sinistres
70
:
( )
( )
( )
∑ ∑
=
=
=
∧ ∧ ∧ ∧

(
¸
(

¸

⋅ − = =

I
i
H
i
i
i
m H r R R E
1
2
) 0 (
,
1 ,
exp
ω
τ τ
τ τ
τ
τ
τ . (2)

( ) τ H
r désigne le taux sans risque d’échéance H(τ) prévalant en t
0
.
II. La projection en monnaie constante des prestations futures
II.1 La modélisation des prestations
Estimer la valeur réelle des prestations futures requiert de se doter d’un modèle d’inflation.
Pour le moment, cette question est reportée tandis que nous nous concentrons sur la méthode
d’estimation des paiements futurs exprimés en monnaie constante.
Sous les hypothèses présentées, il est possible d’estimer la prestation moyenne d’un
règlement futur à partir du modèle (20). En effet, pour un sinistre réglé en t > 17 au temps
opérationnel τ, cette quantité est estimée à
( )
1
, t m t f m τ

τ

⋅ =

( ) ( ) ( )
( ) ( )
¦
¦
¹
¦
¦
´
¦
(
¸
(

¸

⋅ ξ + − ⋅ ξ ⋅ =
(
¸
(

¸

− τ ⋅ ξ + − τ ⋅ ξ + τ − ⋅ ξ + ξ =
∧ ∧
∈ τ
+

+

+
∧ ∧
τ

t 9 t I exp t f
9 , 0 6 , 0 2 , 0 exp m
c
3
c
2 , 2 I
to
4
to
3
to
1
s 1
2
(3)
L’estimation des prestations espérées futures nécessite la connaissance de leur temps réel
et opérationnel. Hors, seul le temps opérationnel de la prestation m
t,τ
est connu à partir de
l’équation (1). L’estimation du facteur de surinflation f(t) requiert donc que l’on puisse
associer une valeur de temps réel à chaque règlement futur à partir de son temps opérationnel.
A cet effet, l’estimation du lien entre t et τ peut être effectuée à partir d’une courbe
continue. Comme en témoigne la figure 12, cette relation est souvent modélisable à partir
d’une fonction de répartition exponentielle
71
.

70
Le Best Estimate est calculé hors frais de gestion des sinistres.
71
Dans les premières années, on peut observer un point d’inflexion de la courbe correspondant à une accélération des règlements. Dans ce
cas, l’utilisation d’une fonction de type Gamma peut être plus appropriée.
Calcul du Best Estimate des PSAP 89
La figure 44 présente une courbe typique.
Figure 44 – Liaison type entre temps réel et opérationnel

A ce sujet, l’observation des trajectoires de temps opérationnel observées par survenance
permet de considérer raisonnable l’utilisation de la forme exponentielle.
Figure 45 – Trajectoires des temps opérationnels
par année de survenance
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
J
τ ττ τ
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995

Wright suggère la relation suivante entre temps et temps opérationnel
72
:

|
¹
|

\
|
τ −
τ −
⋅ − = τ τ = −
ref
ref ref
1
1
ln
c
1
) , ( H t t , (4)
où t
ref
désigne le point de départ de comptage du temps réel, et τ
ref
le temps opérationnel
qui lui est associé.
Dans le calcul des coûts moyens, il existe deux points de départ : la mesure du temps réel à
partir de t = 0 permet d’estimer la surinflation des prestations, celle effectuée à partir de t
0

permet le calcul de leur croissance inflationniste depuis la date de calcul des provisions.

72
L’expression de H(to , τ) est justifiée en annexe M.
Calcul du Best Estimate des PSAP 90
L’expression en monnaie constante des prestations futures devient
( ) ( ) [ ]
τ τ ∈ τ τ
= ⋅ ξ + ξ ⋅ ⋅ τ = m m I , 0 H exp m
1 c
3
c
2 , 2 I , t
2
. (5)
II.2 L’application numérique
Dans le cas où il existe un lien de type exponentiel entre t et τ, Wright propose une façon
aisée de déterminer la meilleure estimation du paramètre c. Il s’agit de remarquer que 50%
des sinistres (τ = 0,5) sont réglés au temps réel médian t
m
défini par

( )
m
m
t c
t
2 ln
c e 1 5 , 0 = ⇔ − =
⋅ −
. (6)
La solution consiste à estimer la valeur de t
m
à partir de l’observation du triangle des temps
opérationnels. Comme les années d’origine sont des années de survenance, il s’agit de
remarquer pour j > 1, que l’âge moyen des sinistres réglés la j
ème
année de développement est
approximativement de j – 1 années.
Les temps opérationnels moyens en fin de 3
e
et 4
e
année de développement sont de 37,5%
et 56,08%. On estime par interpolation linéaire la valeur médiane t
m
pour laquelle τ = 0,5 :

2
375 , 0 5 , 0
3
5 , 0 5608 , 0


=


m m
t t
, soit t
m
≅ 2,65 années.
A partir de l’équation (6), on en déduit la valeur de c = ln(2)/2,65 = 0,262.
On rappelle que le recours au temps opérationnel a été motivé par l’instabilité des cadences
de règlements. Dans ce contexte, l’utilisation d’un unique coefficient c pour l’ensemble des
survenances peut donc apparaître inadéquate. De ce fait, nous privilégions une solution simple
consistant à estimer un temps médian t
m
par année de survenance selon la méthode qui vient
d’être présentée. Les coefficients estimés sont présentés au tableau 17.
Tableau 17 – Estimation par survenance du lien exponentiel entre temps réel et opérationnel

I 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
t
m
2,69 3,20 3,33 2,74 2,50 2,46 2,90 2,85 2,70 2,55 2,46 2,54 2,46 2,18 2,18 2,18 2,18
c
i
0,25 0,21 0,20 0,25 0,27 0,28 0,23 0,24 0,25 0,27 0,28 0,27 0,28 0,31 0,31 0,31 0,31
La baisse de t
m
dans le temps témoigne de l’accélération des règlements sur les trois
premières années de développement. Ce phénomène est directement observable depuis le
triangle des temps opérationnels. Faute d’observations sur les deux dernières survenances
pour pouvoir estimer t
m
, nous leur attribuons la courbe d’écoulement des règlements de la
survenance 1993 (i = 14). L’estimation des écoulements de sinistres par survenance est
présentée en annexe M.
Calcul du Best Estimate des PSAP 91
L’estimation de la somme des prestations restant à payer est effectuée selon les deux
approches : en tenant compte d’un coefficient unique c et à partir d’un coefficient c
i
par
survenance. Les résultats sont présentés au tableau 18.
On en rappelle la méthode de calcul. Une fois le paramètre c calibré par survenance à partir
de l’équation (6) et les temps opérationnels des prestations futures estimés à partir de
l’équation (1), on estime les temps réels qui leur sont associés en fonction de l’équation (4).
Ensuite, la connaissance des temps réels et opérationnels des sinistres futurs permet d’estimer
le montant des prestations à partir de l’équation (5).
On note que l’application d’une seule loi d’écoulement (colonne 2) conduit à des résultats
assez différents de ceux issus de l’utilisation d’une cadence par survenance (colonne 3).
Tableau 18 – Estimation des prestations restant à payer
en dollar 1995
i Nombres de sinistres en cours Somme des prestations futures
Déclarés IBNR Total
Chain Ladder
(1)
GLM – c = 0,262
(2)
GLM - ci
(3)
1 0 0 0 0 0 0
2 0 0 0 0 0 0
3 12 0 12 0 1 307 011
1 359 150
4 1 0 1 263 530 100 982
101 318
5 5 0 5 537 194 530 469
526 503
6 11 0 11 1 025 765 1 192 932
1 180 404
7 13 0 13 1 266 194 1 420 650
1 441 796
8 22 0 22 2 384 886 2 466 009
2 495 436
9 40 1 41 3 630 645 4 908 134
4 923 057
10 62 1 63 4 939 162 8 041 863
8 002 984
11 81 3 84 8 607 300 11 446 354
11 337 042
12 91 8 99 14 281 792 14 181 623
14 105 465
13 138 15 153 20 008 266 22 222 160
22 007 342
14 208 26 234 33 439 775 31 973 307
31 110 884
15 332 36 368 36 280 466 42 062 078
40 728 564
16 430 66 496 40 514 274 45 976 992
44 298 879
17 575 243 818 49 070 926 58 158 445
55 901 796
2 021 399 2 420 216 250 173 245 989 010 239 520 620
Par ailleurs, rappelons-nous avoir observé en début de partie II que le calcul par Chain
Ladder conduisait à des résultats très différents selon la profondeur de l’historique pris en
compte. Les résultats obtenus ici conduisent à une augmentation de 11% de la charge estimée
par Chain Ladder en intégrant l’ensemble des survenances dans le calcul (colonne 1).
La comparaison des deux résultats n’est pas aisée. La seule remarque évidente traite des
facteurs de queue. Par définition, la méthode Chain Ladder suppose que le risque des trois
premières survenances est totalement écoulé. A l’inverse, la méthode suivie modélise
implicitement les facteurs de queue. A cet égard, on estime au titre de la survenance 1981
(i=3) une charge de 1,3 millions de dollars relative à 12 sinistres déclarés et dont les
règlements interviennent jusqu’à la 28
ème
année de développement.
Calcul du Best Estimate des PSAP 92
III. L’inflation future
III.1 Le modèle d’inflation
Estimer la valeur réelle des prestations futures requiert de se doter d’un modèle d’inflation.
De nombreux modèles ont été proposés dans la littérature pour décrire l’inflation. Dans le
cadre des travaux actuariels, on peut citer les travaux de Kaufmann (2001), de Wilkie (1995)
ou encore d’Ahlgrim et al (2001) dont nous nous inspirons. Dans leur article, les auteurs
supposent que le taux d’inflation i
t
suit un processus d’Ornstein-Uhlenbeck basé sur
l’équation différentielle stochastique
( )
t t t
dW dt i di ⋅ + ⋅ − ⋅ = σ η β . (7)
La dynamique décrite par l’équation (7) est caractéristique des modèles dits de « retour
vers la moyenne ». Ce phénomène est modélisé par la partie déterministe ou drift de
l’équation. Par exemple, si le niveau courant i
t
de l’inflation est inférieur à sa moyenne de
long terme η, le drift devient positif. Ce mécanisme assure la convergence à terme de i
t
vers
η, convergence dont la vitesse dépend du coefficient β > 0. Le deuxième terme de l’équation
représente l’incertitude lié au processus. La variation du processus de Wiener W
t
est
distribuée selon une loi normale standard, tandis que le coefficient de diffusion σ détermine
l’amplitude de la volatilité du processus.
L’estimation économétrique de ce type d’équation est le plus souvent rendue difficile si
comme dans la majorité des cas, on ne dispose que d’observations discrètes. Ainsi, la mise en
œuvre de ce processus nécessite dans la pratique sa discrétisation. Il s’agit donc d’estimer les
paramètres du modèle à partir du processus discrétisé et non à partir du modèle continu. Pour
discrétiser l’équation (7), on peut utiliser :
• Le schéma d’Euler
73


( )
( ) t i t t i
t t i i i i
t t t
t t t t t
∆ ⋅ + ⋅ ∆ − + ⋅ ∆ = ⇔
∆ ⋅ + ∆ − ⋅ = − = ∆
∆ +
∆ +
εσ β η β
εσ η β
1
, (8)
où ε est une variable de loi normale centrée réduite et ∆t le pas de discrétisation.
Cette approximation est d’autant plus fine que le pas de discrétisation est petit. L’équation
(8) définit le taux d’inflation comme une moyenne pondérée du taux de la période précédente
et du taux moyen de long terme.
• La solution exacte
Gouriéroux et al. (1993) montrent qu’il existe une solution explicite
74
à l’équation (7), on a
( ) ε ⋅
β

σ + − ⋅ η + ⋅ =
∆ β −
∆ β − ∆ β −
∆ +
2
e 1
e 1 e i i
t 2
t t
t t t
(9)

73
Pour une présentation du schéma d’Euler, se reporter par exemple au chapitre 5 de Planchet et al. (2005).
74
Le cheminement à la solution exacte est rappelé en annexe O.
Calcul du Best Estimate des PSAP 93
Selon les deux méthodes, on est donc conduit à considérer une relation linéaire
autorégressive du type
ε + + ⋅ =
∆ +
b i a i
t t t
. (10)
Dans le cas de la solution exacte, la relation entre l’équation (10) et les paramètres de
l’équation (9) est donnée par
( )
β

⋅ σ = σ − ⋅ η = =
∆ β −
ε
∆ β − ∆ β −
2
e 1
, e 1 b , e a
t 2
t t
.
L’estimation des paramètres a, b et σ
ε
peut s’effectuer en recourant soit à la méthode des
MCO, soit à celle du maximum de vraisemblance. Les deux méthodes aboutissent aux mêmes
résultats. Dans le cas de la régression à laquelle nous avons recours, on est conduit à
considérer une équation du type
ε + + ⋅ = b X a Y , (11)
où Y est le vecteur des taux d’inflation et X celui des taux décalés d’un pas.
Les MCO donne des estimateurs sans biais de a, b et σ
ε
dont on rappelle l’expression :

( )( )
( )
|
¹
|

\
|
+ ⋅ − = ε

|
¹
|

\
|
ε − ε
= σ ⋅ − =

− −
=
∧ ∧ ∧
=
∧ ∧
ε
∧ ∧ ∧
=
=




b x a y où
,
2 n
, x b y a ,
x x
x x y y
b
t t
t
2
m
1 t
t
2
m
1 t
2
t
m
1 t
t t

A partir des estimations des coefficients de l’équation (11), on déduit celles des paramètres
du modèle continu :

|
|
¹
|

\
|
β − ⋅ ∆
β
⋅ − ⋅ σ = σ

= η

− = β


ε
∧ ∧





2
1 t
ln
2 ,
a 1
b
,
t
a ln
.
Etant donné le taux d’inflation actuel i
t
et les paramètres estimés du processus, il est alors
possible de projeter l’inflation future et de déduire la trajectoire moyenne des taux d’inflation
à utiliser dans le calcul du Best Estimate.
En effet, étant donné i
0
le taux d’inflation observé en t
0
, on peut montrer par le
développement d’Itô-Taylor que l’équation (7) définit chaque variable i
t
comme gaussienne,
d’espérance et de variance

( ) ( )
( ) ( )
¦
¹
¦
´
¦
− ⋅ =
− ⋅ + ⋅ =

− −
t
t
t t
t
e i V
e e i i E
β
β β
β
σ
η
2
2
0
1
2
1
.
Calcul du Best Estimate des PSAP 94
En résumé, le choix de ce modèle d’inflation est avant tout motivé par sa facilité de mise
en œuvre. Rappelons pour finir que l’utilisation d’un processus Ornstein-Uhlenbeck influe sur
la trajectoire des taux d’inflation à au moins deux niveaux :
• En ce qui concerne la trajectoire moyenne utilisée dans le calcul du Best Estimate :
On rappelle que le modèle de Vasicek stabilise la queue de la courbe des taux d’inflation,
comme l’ensemble des modèles de retour vers la moyenne. Cette caractéristique n’apparaît a
priori pas justifiable économiquement. Pour plus de réalisme, il s’agirait d’utiliser un modèle
plus ambitieux incorporant les contraintes macro-économiques pesant sur l’inflation
(chômage, lien entre taux d’intérêt et taux d’inflation…).
• Quant aux trajectoires de taux simulées :
On rappelle que le processus d’Ornstein-Uhlenbeck n’exclut pas les valeurs négatives ou
nulles. Cette caractéristique prend effet dans le calcul du risque de provision, au moment
d’estimer l’impact d’un choc d’inflation sur la courbe des taux à un an. Mais si la production
de valeurs négatives peut être considérée comme problématique dans un contexte de
simulation de taux d’intérêt, elle est en revanche nécessaire dans le cas de l’inflation. En
témoignent les trajectoires des taux d’inflation présentées dans la section suivante.
III.2 Le calibrage des paramètres
En nous plaçant en Septembre 2009, nous nous affranchissons de toute cohérence de temps
avec les données utilisées
75
pour projeter l’inflation future. En ce sens, nous considérons
comme virtuel le portefeuille utilisé dans la construction du modèle de provisionnement.
Tout comme Ahlgrim et al., nous estimons les paramètres β et η à partir des indices des
prix à la consommation produits par le Bureau des Statistiques du Travail américain
76
. Selon
les auteurs, l’erreur de mesure courante sur ces indices mensuels peut biaiser l’estimation des
paramètres. Afin de limiter ce phénomène, ils préconisent d’opérer une régression annuelle
sur les indices.
On est conduit à considérer le rapport

1
ln

=
t
t
t
CPI
CPI
i
où CPI
t
est l’indice des prix à la consommation en t et CPI
t-1
celui comptabilisé l’année
passée sur le même mois.
Les taux annuels d’inflation calculés à partir des indices des prix de septembre 1913 à
septembre 2009 sont présentés à la figure 46. On y observe clairement une rupture à partir de
1983, tant en tendance qu’en volatilité.

75
Nous rappelons que les données utilisées sont exprimées en dollars américains de 1995, année de la dernière survenance observée.
76
La série désaisonnalisée « Consumer Price Index – All Urban Consumers » (ref. CUSR0000SA0) et le descriptif de sa construction sont
disponibles sur www.bls.gov.
Calcul du Best Estimate des PSAP 95
Figure 46 – Taux annuels d’inflation
-15%
-10%
-5%
0%
5%
10%
15%
20%
1
9
1
4
1
9
3
3
1
9
5
2
1
9
7
1
1
9
9
0
2
0
0
9

Le tableau 19 présente sur différentes périodes la variance empirique σ
i
des taux annuels
d’inflation et les estimations des coefficients du modèle continu selon le schéma d’Euler et
par la solution exacte. On remarque que l’estimation du paramètre β conduit à des résultats
très différents selon la méthode retenue. On note en particulier que l’estimation par la solution
exacte est davantage sensible aux changements dans l’échantillon d’ajustement
77
.
Tableau 19 – Estimations des paramètres du modèle d’inflation

β

η

σ
i
σ
Echantillon
d’ajustement
Euler Exact Euler Exact Exact

1914-2009 (1) 0,40 0,52 3,16% 3,16% 0,21% 4,92%
1947-2009 (2) 0,38 0,48 3,27% 3,27% 0,07% 3,03%
1983-2009 (3) 1,03 -
78
2,94% - - 1,36%
1983-1995 (4) 0,80 1,63 3,49% 3,49% 0,01% 1,09%
1983-2008 (5) 0,75 1,37 3,13% 3,13% 0,01% 1,09%
La comparaison des résultats issus des régressions (2) et (3) rappelle la rupture de 1983,
caractérisée par une augmentation de la force de rappel et une diminution de la variance
empirique des taux annuels. La valeur de ces deux paramètres apparaît stable sur la période
1983 - 2008, comme en témoignent les résultats des régressions (4) et (5).
Nous décidons de calibrer les paramètres du modèle d’inflation à partir des résultats de la
régression (5) : nous fixons le paramètre de rappel β à 1,4 et la moyenne à long terme η à 3%.
En ce sens, nous stipulons le maintien des caractéristiques du processus observé depuis 1983
sur les 23 années
79
de projection nécessaire à l’écoulement total du risque étudié. Notons que
ce choix revient également à considérer le taux négatif de 2009 comme atypique, dès lors
qu’il n’est pas incorporé dans l’échantillon d’ajustement.

77
Dans le cas du schéma d’Euler, on a
t
a 1
1




= β contre
t
) a ln(
2



− = β pour la solution exacte. Comme

a < 1, on a
1 2
a a
∧ ∧
β


> β


.
78
Comme 0 a <

, le calcul de

β est impossible.
79
Se reporter au tableau 19.
Calcul du Best Estimate des PSAP 96
D’autre part, on observe dans le cas de la solution exacte que l’estimation simultanée des
paramètres β, η et σ conduit à des taux d’inflation quasi déterministes de par la petitesse de σ.
L’absence de réalisme de ce résultat nous conduit à fixer arbitrairement la valeur de σ, par
référence à l’écart type empirique . La valeur de 4% retenue pour ce paramètre est justifiée
dans la section suivante.
III.3 La validation du modèle par back testing
Au-delà de la précision de la méthode d’estimation des paramètres et de l’actualité de
l’échantillon d’ajustement, le test majeur de validité du modèle est celui de la cohérence des
résultats. Cette section analyse les caractéristiques des trajectoires de taux simulées et les
compare avec les valeurs historiques. L’objectif ne consiste évidemment pas à vérifier la
réplication du passé par le modèle mais plutôt à s’assurer de la plausibilité de ses résultats.
Afin de tester cette plausibilité, on simule 1000 trajectoires de taux mensuels annualisés
80

sur 20 années à partir du schéma d’Euler pour les paramètres retenus à la section précédente :

12
1
0
t % 4 % 3 4 , 1 % 8 , 0 i = ∆ = σ = η = β = .
La valeur d’initialisation i
0
correspond au taux mensuel observé en septembre 2009. La
valeur du paramètre de diffusion σ est fixée à 4%. Elle correspond à la valeur de l’écart type
des taux mensuels annualisés observés sur la période courant de février 1983 à septembre
2009. Nous montrons plus en avant que le niveau de 4% retenu aboutit à une distribution des
taux simulés cohérente avec les observations effectuées depuis 1983. Les caractéristiques
majeures des trajectoires de taux sont présentées à la figure 47 et au tableau 19.
La figure 47 présente sur les 20 années de projection les trajectoires moyennes (empirique
et selon le modèle continu) et les quantiles à 0,5% et 99,5% des taux simulés. On observe par
exemple que le niveau retenu des paramètres σ et β entraîne la stabilisation du taux moyen
d’inflation autour de son niveau de long terme au bout de trois années.
Figure 47 – Taux d’inflation mensuels sur 20 années
-12%
-6%
0%
6%
12%
0 40 80 120 160 200 240
mois
espérance
moyenne empirique
quantile à 1,00%
quantile à 99,00%


80
Si im désigne le taux d’inflation mensuel déterminé par le rapport des indices de prix de deux mois successifs, le taux d’inflation mensuel
annualisé associé est égal à la quantité (1+im)
12
- 1.
Calcul du Best Estimate des PSAP 97
Les taux i
t,H
reportées au tableau 20 sont calculées à partir des taux simulés. On désigne
par i
t,H
le taux moyen géométrique calculé en début de mois t sur un horizon de H mois :
( ) 1 1
12
1
1 ,
12
1

|
|
¹
|

\
|
+ =

=
− +
H H
j
j t H t
i i
Les valeurs moyennes des variables i
t,H
sont reportées pour les 1
er
, 13
ème
et 121
ème
mois de
projection et leurs quantiles à 0,5% et à 99,5% sont indiqués pour le 121
ème
mois. Par
exemple, le tableau 19 montre que le taux mensuel moyen initialisé à 0,8% passe à 2,5% dès
le 13
ème
mois de simulation. De même on observe que les quantiles à 0,5% et à 99,5% des
taux mensuels simulés sur le 121
ème
mois sont respectivement de -5,8% et 9%.
Tableau 20 – Résultats des 1000 simulations de taux
Moyenne Quantiles
t = 1 t = 13 t = 121 t = 121
Taux
d’inflation
0,5% 99,5%
i
t,1
1,0% 2,5% 3,0% -5,8% 9,0%
i
t,12
1,9% 2,7% 3,0% -2,6% 8,1%
i
t,120
2,8% 2,8% 2,9% 0,1% 5,0%
La figure 48 permet d’appréhender le réalisme de ces premiers résultats. Elle présente les
taux mensuels annualisés d’inflation
81
enregistrés depuis mars 1983. Comme l’enseigne son
observation, il est plausible de simuler des valeurs négatives de taux d’inflation, dès lors qu’il
existe des observations négatives. De même, des valeurs excédant 9% sont observées.
Figure 48 – Taux mensuels annualisés d’inflation
mars 1983 – septembre 2009
-21%
-15%
-9%
-3%
3%
9%
15%
21%
0
3
/
1
9
8
3
1
0
/
1
9
8
9
0
6
/
1
9
9
6
0
2
/
2
0
0
3
0
9
/
2
0
0
9


81
Soient les taux ( ) 1
12
1

− m
m
CP
CP
, où CPm désigne l’indice des prix du mois m.
Calcul du Best Estimate des PSAP 98
La figure 49 fournit une indication plus précise sur la plausibilité des simulations. Elle
juxtapose l’histogramme des taux mensuels annualisés observés de février 1983 à septembre
2009 et celui des valeurs projetées sur les 20 années de simulation. Il apparaît clairement que
la distribution des taux historiques est plus heurtée que celle des taux simulés.
Figure 49 – Taux d’inflation mensuels annualisés historiques et simulations
0%
4%
8%
12%
16%
-
2
1
%
-
1
7
%
-
1
3
%
-
9
%
-
5
%
-
1
%
3
%
7
%
1
1
%
1
5
%
Taux d'inflation mensuels
Modèle
Historique

Ce phénomène provient tout d’abord du fait que l’histogramme résume seulement 294
valeurs historiques contre 1000×240 dans le cas des simulations. Ensuite, les valeurs simulées
sont produites par un modèle mathématique tandis que les valeurs historiques résultent de
l’interaction d’une multitude de variables.
La question principale est de savoir si le modèle retranscrit de façon réaliste la distribution
de probabilité des taux. A ce sujet, on remarque que la distribution historique présente des
queues plus épaisses que celle des taux gaussiens simulées. On parle de taux historiques
leptokurtiques. En revanche, le cœur de la distribution des simulations apparaît en phase avec
celui des valeurs historiques.
L’observation du tableau 19 permet également de considérer les projections de taux
comme raisonnables, sur un horizon court comme de long terme :
Sur un horizon annuel, le modèle prévoit une inflation moyenne de 1,9% pour la 1
ère
année
de simulation. Le taux moyen passe à 3% pour la 13
ème
année de simulation, en accord avec
les paramètres du modèle. Dans 0,5% des cas, les taux annuels simulés sur la 11
ème
année sont
inférieurs à -2,6%. A ce sujet, l’observation de la figure 46 nous montre que
l’expérimentation d’une déflation sur une année entière reste un phénomène rare pour les
années postérieures à 1983. Cependant, cet évènement reste envisageable, comme dans le cas
de l’année 2009. Il apparaît donc naturel d’attribuer une probabilité non nulle à sa survenance.
Quant à la prévision des taux de long terme, on s’attend à une moindre incertitude du fait
du mécanisme de retour à la moyenne. Ce postulat est confirmé par les simulations. Le
modèle prévoit un taux moyen annuel de 2,8% pour les 10 premières années de projection, et
de 2,9% pour la seconde décennie, niveau proche du taux de long terme. On remarque
également par la moindre amplitude des quantiles des taux simulés sur la seconde décennie
que le taux moyen géométrique est moins variable sur les horizons longs.
Calcul du Best Estimate des PSAP 99
III.4 La modélisation de l’inflation dans les prestations futures
On estime l’évolution de l’inflation à partir des taux simulés. A partir de t
0
, la date de
calcul de la provision, on découpe le temps réel en intervalles mensuels.
Autrement dit, on définit le m
e
intervalle par l’ensemble des valeurs de temps réel
{ }
12 0 12
1
0
,
m m
t t t t t + ≤ + >

. Sur le m
e
intervalle, on suppose que la variation dCP
t
de l’indice
des prix CP
t
se fait au taux espéré

|
¹
|

\
|
− ⋅ η + ⋅ =
⋅ β −

⋅ β −
∧ ∧
12
m
12
m
e 1 e i i
0 m
, pour m ≥ 1.


β et

η sont les estimations des paramètres du modèle calculées précédemment.
Autrement dit, on a pour t
(
¸
(
(
¸
(
+

+ ∈
12
m
t ,
12
1 m
t
0 0
:
. dt i CP dCP
m t t
⋅ ⋅ =
On rappelle que cette équation différentielle s’intègre immédiatement :
( ) ( )
12
i
t t
m
t t
t t
t t
m
t t
t t
t
t
m
12
1 m
0
12
m
0
12
1 m
0
12
m
0
12
m
0
12
1 m
0
12
m
0
12
1 m
0
e CP CP
12
i
CP ln CP ln
dt i
CP
dCP
⋅ = ⇔
= − ⇔
=


− −
+ +
+ +
+ =
+ =
+ =
+ =
∫ ∫

On désigne par d = 12×(t – t
0
) le nombre de mois écoulés depuis t
0
et par [.] l’opérateur
partie entière. En posant 1
0
=
t
CP , on obtient par récurrence l’indice d’inflation en base t
0
:
( )
(
(
(
¸
(

¸

|
|
|
¹
|

\
|
⋅ |
¹
|

\
|
(
¸
(

¸

− + ∑ ⋅ ⋅ = = +
(
¸
(

¸

∧ ∧ ∧
(
¸
(

¸

=








∧ ∧
1
1 1
,
12
1
exp
0 0
d
d
j
j
d
H t t i d d i I CP CP τ τ , (12)
L’intégration de l’indice d’inflation dans (5) définit le coût réel d’un sinistre futur :
( ) ( )
1 c
3
c
2 , 2 I
, H m I , 0 H exp CP m
2
0
τ
∧ ∧ ∧
∈ τ

τ τ

τ

(
¸
(

¸

|
¹
|

\
|
ξ + ξ ⋅ ⋅ τ ⋅ =

(13)
Calcul du Best Estimate des PSAP 100
IV. L’évaluation du Best Estimate des PSAP
On définit le Best Estimate des provisions pour sinistres par la somme actualisée à la
courbe des taux sans risque des prestations futures définies par l’équation (13).
En ce qui concerne l’actualisation des flux, il s’agit de tenir compte d’un taux sans
risque de marché « pertinent
82
» pour des instruments de même durée. Nous choisissons la
courbe des taux zéro coupon publiée par la commission « Indices et références du marché »
de l’Institut des Actuaires au 30 Septembre 2009. On remarque que le profil ascendant de la
courbe présentée à la figure 50 correspond au cas le plus courant d’anticipations haussières
des taux spots
83
.
Figure 50 – Courbe des taux zéro coupon au 30 septembre 2009
0,00%
2,25%
4,50%
1 32 63 94 125 156 187 218 249 280
Durée en mois

Par ailleurs, si les marchés ne recèlent pas l’information complète, elle doit être extrapolée
à partir des taux observés. A ce sujet, les principes MCEV
84
en voie de convergence avec le
référentiel Solvabilité II autorisent les travaux d’interpolation lorsque, comme c’est notre cas,
des maturités sont manquantes. Dans l’actualisation des flux, nous utilisons en ce sens les
taux zéro coupon interpolés linéairement.
En ce qui concerne les flux constitutifs du Best Estimate, on rappelle que le coût d’un
sinistre pour un temps opérationnel donné est supposé évoluer dans le temps selon l’effet
conjugué de l’inflation et de la surinflation. L’indice annuel moyen de surinflation a été
estimé dans la partie II : il est constant et égal à 3,64%. Insistons une fois encore sur la
difficulté d’extrapoler la surinflation des coûts compte tenu des nombreux facteurs juridico
socio économiques qui en sont à l’origine. Dans ce contexte, la reproduction dans le futur de
la surinflation passée constitue un choix de modélisation parmi d’autres.

82
Article 76 de la Directive Européenne (Parlement Européen, 2009).
83
On rappelle qu’on peut écrire le taux long rp(0) (à p périodes) comme la moyenne géométrique du taux court r1(0) (à une période) et des
taux forward fi,1 à court terme, avec (1+rp(0))
p
= (1+r1(0))(1+f1,1(0))…(1+fp-1,1(0)), où le taux fi,1(0) implicite dans la gamme représente à
l’équilibre la valeur anticipée aujourd’hui du taux à une période r1(p) qui prévaudra dans p périodes, majorée d’une prime de liquidité.
84
Se reporter au principe 14 « Risk Free Rates » du CFO Forum (2009), « MCEV Principles and Guidance ».
Calcul du Best Estimate des PSAP 101
En ce qui concerne l’indice d’inflation en base t
0
, on estime sa progression moyenne à
partir de l’équation (12), définissant la meilleure estimation de l’inflation future. Compte tenu
des estimations des paramètres β et η, on obtient la figure 51.
Figure 51 – Représentation de l’indice moyen de l’évolution des prix
85

1,00
1,11
1,22
1,33
1,44
1,55
1,66
1,77
1,88
1,99
2,10
1 42 83 124 165 206 247 288
mois

L’observation de gauche à droite de la figure 52 permet de mesurer l’impact des effets de
taux sur l’estimation de la meilleure estimation des PSAP :
0
50
100
150
200
250
300
Millions $
Coûts constants surinflation inflation Actualisation Best Estimate
Figure 52 - Eléments constitutifs du Best Estimate

Le premier bloc « coûts constants » représente l’estimation de la somme des prestations
futures sans prise en compte du phénomène de surinflation. Le Best Estimate des PSAP est
constitué de la somme du premier bloc et des blocs en jaune représentatifs des effets de taux.
Les résultats sont repris par survenance au tableau 21.

85
dont le taux évolue selon le modèle de Vasicek ajusté par discrétisation exacte.
Calcul du Best Estimate des PSAP 102
La colonne (1) du tableau 21 correspond au premier bloc « coûts constants » de la figure
52. On remarque que la prise en compte du phénomène de surinflation augmente de 16% la
somme des prestations futures. L’intégration de l’inflation conduit à une hausse globale de
13% des prestations surinflatées. Cet effet est compensée par celui de l’actualisation des flux.
Tableau 21 – Estimation du Best Estimate

Coûts constants Effets inflationnistes Best Estimate
Surinflation Inflation Actualisation
i (1) (2) (3) (4)
1 0 0 0 0
2 0 0 0 0
3 1 135 357 1 359 150 1 588 721 1 328 522
4 91 700 101 318 108 415 103 319
5 463 543 526 503 582 161 526 305
6 1 036 494 1 180 404 1 311 354 1 176 215
7 1 233 804 1 441 796 1 644 261 1 422 876
8 2 140 711 2 495 436 2 843 281 2 463 043
9 4 274 419 4 923 057 5 549 461 4 876 338
10 7 031 223 8 002 984 8 920 753 7 954 372
11 10 050 287 11 337 042 12 530 107 11 294 968
12 12 478 001 14 105 465 15 625 621 14 045 563
13 19 446 332 22 007 342 24 369 346 21 949 841
14 27 611 500 31 110 884 34 223 881 31 143 842
15 35 358 147 40 728 564 45 630 397 40 653 351
16 37 477 628 44 298 879 50 690 620 44 030 834
17 46 282 277 55 901 796 65 332 964 55 022 806
206 111 422 239 520 620 270 951 344 237 992 195
De façon générale, la méthode retenue allonge sensiblement l’horizon de projection des
prestations par rapport à la méthode Chain Ladder. Pour appréhender l’impact des effets de
taux sur le niveau des prestations, il est intéressant d’observer les caractéristiques des derniers
sinistres. Au tableau 22 sont présentés les estimations des délais de règlement, des facteurs
d’inflation, de surinflation et des prestations des trois derniers sinistres réglés.
Tableau 22 – Inflation dans les prestations versées au titre des trois derniers règlements
Délai Prestation Facteur de surinflation Facteur d’inflation Facteur de croissance
en années en dollar 1995
( )
c
3
, 0 H
e
ξ ⋅ τ

) ,
0
( τ t H
CP
e

(1) (2) (1)×(2)
18,21 180 026 1,94 1,70 3,30
19,81 189 735 2,06 1,79 3,67
23,27 213 882 2,33 1,98 4,62
On remarque que le modèle estime qu’en vingt trois ans (depuis t
0
), le coût du dernier
sinistre réglé aura plus que doublé (× 2,33) du fait de la surinflation, et plus que quadruplé (×
4,62) de par l’effet conjugué de l’inflation et de la surinflation.
Calcul du risque de provisionnement 103
CHAPITRE II. LE CALCUL DU RISQUE DE PROVISIONNEMENT
I. L’exposé du problème
La problématique du risque d’insuffisance des provisions à couvrir les prestations futures
jusqu’à l’écoulement total des sinistres fait l’objet d’une littérature abondante
86
. Pour mesurer
ce risque dit ultime, nous nous plaçons aujourd’hui en t
0
dans le cadre du modèle de
provisionnement spécifié en seconde partie (équation 20).
Si R
(0)
désigne la provision estimée aujourd’hui et X

, la prestation payée au titre du
sinistre de temps opérationnel τ et de survenance i, la mesure du risque ultime passe par
l’estimation de la distribution de probabilité de la variable

( )
∑ ∑
=
ω
τ
τ = τ
τ

I
1 i
i
, i
1 , i
i
0
X R .
Une fois la distribution estimée, il est par exemple possible à partir d’un de ses quantiles de
déterminer un niveau de marge de prudence. On conçoit donc que l’analyse du risque ultime
soit une problématique centrale dans l’étude de la solvabilité à long terme de l’assureur.
Toutefois, cette problématique ne correspond pas à celle réglementaire de calcul du capital
requis, qui s’appuie sur une mesure de perte (approche VaR) à horizon d’un an. Pour couvrir
le risque de provisionnement, le référentiel prudentiel définit ainsi la charge de capital à
immobiliser par le quantile à 99,5% de la perte à un an du portefeuille en continuité d’activité.
Si I désigne le montant des intérêts distribués durant l’année à venir,
i t i i
N
− +
=
2 ,
0
λ le
nombre de règlements effectués durant cette période au titre de la survenance i et R
(1)
la
provision estimée dans un an, il s’agit d’estimer la distribution du résultat de liquidation :

( ) ( )
|
|
¹
|

\
|
+ − +
∑ ∑
=
λ
τ
τ = τ
τ
1
I
1 i
i
, i
1 , i
i
0
R X I R .
Pour calculer la charge en capital au titre du risque de provisionnement et la combiner avec
celles d’autres risques de sorte à évaluer le capital global de solvabilité, il est donc nécessaire
d’estimer la distribution du résultat de liquidation des sinistres en cours. Dans certains cas,
des réponses analytiques existent. Notons en particulier l’approche de M. Wütrich et M. Merz
(2007) qui, en extension du modèle stochastique Chain Ladder de Mack (1993), fournit une
solution analytique de l’erreur quadratique moyenne de prédiction du résultat de liquidation.
Mais dans la plupart des cas tel celui de notre modèle, où il n’existe pas d’expression
analytique de la distribution, les méthodes simulatoires constituent l’unique solution. A ce
sujet, Björkwall et al. (2008) décrivent la méthode de calcul de la distribution du résultat à un
an dans un cadre Bootstrap. Dans le calcul du risque de provisionnement, nous privilégions ce
type d’approche en l’adaptant à notre modèle de provisionnement.

86
Se reporter par exemple à Mack (1993) ou England et Verrall (1999).
Calcul du risque de provisionnement 104
II. Le calcul du risque à l’ultime
II.1 La méthode du Bootstrap
II.1.1 Notations
Avant d’aborder la procédure de calcul, nous introduisons une notation adaptée à sa
présentation. Comme il l’a été précisé en début de partie, l’hypothèse fondamentale du calcul
de provisionnement dans le cadre de notre modèle repose sur l’assimilation en espérance des
coûts moyens et des prestations individuelles. Ce postulat revient dans la pratique à assimiler
les observations de coûts moyens S

à des prestations individuelles X

. De ce fait, la notation
utilisée dans cette section ne distingue pas les deux notions.
Nous considérons les données sous la forme du triangle de liquidation constitué des
observations { x

; i,τ ∈ ∇ }, où ∇ désigne le triangle supérieur. L’objectif consiste à estimer
la distribution des prestations futures {X

; i,τ ∈ ∆}, où ∆ = { i = 1, … , I ; τ = τ
i1
, … ,
i

τ }.
Nous rappelons que notre modèle donne une estimation
τ

i
m de m

= E(X

) pour chaque X


des ensembles ∆ et ∇. Ces estimations sont calculées en maximisant la vraisemblance de
l’échantillon gamma ∇X = { X

, i,τ ∈ ∇ }.
II.1.2 La sélection des résidus
Dans le cadre statistique, la méthode du Bootstrap désigne une technique consistant à
obtenir des informations sur une loi à partir d’un échantillon de celle-ci. La technique est
basée sur le rééchantillonage des données de l’échantillon selon un tirage aléatoire avec
remise. Son utilisation repose sur l’indépendance et l’équidistribution des variables sur
lesquelles on effectue le rééchantillonage.
Dans notre modèle, on considère les observations du triangle supérieur comme les
réalisations de variables aléatoires X

. Il est donc naturel de penser à rééchantillonner ces
observations. Cependant, si les X

sont supposées indépendants, ils ne sont pas identiquement
distribués, dès lors qu’on les munit des lois gamma ( )
τ
⋅ φ φ
i
m
1 1
, G .
Comme les X

ne sont pas i.i.d, on procède au rééchantillonage des résidus d’estimation.
Dans le cadre du Bootstrap, nous privilégions les résidus de Pearson dont nous rappelons la
définition dans le cadre gamma du modèle de provisionnement
87
:

( )
( )
τ

τ

τ
τ

τ

τ
τ
⋅ φ

=

=
i
i
i
i
i i
) p (
i
m
m X
X V
X E X
e , pour i, τ ∈∇.
Deux raisons motivent ce choix. Tout d’abord, on montre en annexe P que ces résidus sont
équidistribués si comme nous le supposons les X

sont de loi gamma. Ensuite, le calcul des
résidus de Pearson est relativement peu consommateurs en temps de calcul.

87
L’expression de la variance, de l’espérance et des paramètres de la loi gamma sont justifiés en annexe P.
Calcul du risque de provisionnement 105
En suivant les préconisations d’England et Verrall (1999), nous procédons également à un
ajustement global de ces résidus. Cet ajustement doit permettre de corriger le biais dans la
comparaison des estimations analytiques et Bootstrap de l’erreur de prédiction :

) ( ) ( p
i
pa
i
e p n n e
τ τ
⋅ − = , pour i, τ ∈∇,
Où n et p désignent le nombre d’observations et p le nombre de ses variables explicatives.
Comme les résidus de Pearson sont en moyenne proches de zéro, cette opération a pour
conséquence d’augmenter la variance des résidus, en affectant peu leur moyenne.
II.1.3 L’implémentation du Bootstrap
La procédure de calcul utilise le triangle des résidus ajustés de Pearson comme les données
d’un échantillon. On en déduit la distribution prédictive des prestations futures et par
extension celle du Best Estimate des PSAP.
La volatilité des estimations de prestations futures ne dépend jusqu’en 2.1.2 que de celle
des résidus. Autrement dit, elle ne reflète que l’incertitude liée à la procédure d’estimation. Il
s’agit alors de prendre en compte le risque d’estimation.
En complément, on modélise à partir de 2.1.3 l’incertitude liée à la variabilité intrinsèque
des ∆X

. Cette sous étape permet de prendre en compte le risque de process. Selon la
modélisation retenue, la variabilité des prestations futures dépend de trois facteurs
d’incertitude : l’inflation, la date de règlement et le niveau hors inflation de prestation. Ces
trois éléments sont supposés indépendants et simulés séparément les uns des autres.
1. Préliminaires
• Estimation des ∇x

à partir du modèle de provisionnement et calcul des résidus
associés
) pa (
i
e
τ
∇ , dont on déduit l’estimation du coefficient de dispersion :
( ) ( )
2
pa
i
2
p
i
e
n
1
e
p n
1
∑ ∑

τ

τ

=

= φ .
2. Procédure itérative
Pour chaque itération b = 1,…, B, le processus se poursuit ainsi :
2.1 Calcul des espérances des prestations futures
o 2.1.1 : Génération d’un triangle de pseudo-données
• Création d’un échantillon de résidus noté
b
i
e

τ
∇ par tirage aléatoire avec remise
parmi les
pa
i
e
τ
∇ .
• Détermination de l’échantillon associé des coûts moyens
b
i
x

τ
∇ par
τ


τ
τ


τ
⋅ + = i
b
i
i
b
i
m e m x , pour i, τ ∈∇.
Calcul du risque de provisionnement 106
o 2.1.2 : Estimation des paramètres de régression
A partir des
b
i
x

τ
∇ , on détermine les estimateurs du maximum de vraisemblance des
paramètres de régression

ξ du modèle, utilisés en 2.1.4 pour calculer l’espérance des
prestations futures.
o 2.1.3 : Simulation des dates de règlement
Par le tirage aléatoire de variables uniformes U[0;1], on simule les dates de règlement
( ) u 1 ln
c
1
t t
i
0
b
ij
− − =

, pour i = 1,…, I, j = 1,…,ω
i

auxquelles on associe par ordre chronologique les temps opérationnels
i
i i ω
τ τ , ,
1
L .
o 2.1.4 : Estimation des prestations futures hors inflation
A partir des paramètres

ξ estimés en 2.1, des
b
ij
t

et des
ij
τ associés, on calcule les
prestations futures (hors inflation) prévues par le modèle :
( ) ( ) [ ]
b
ij ij
b b
ij
i
b
ij
i t X E m
∗ ∗ ∗


= = , , exp τ ξ η
τ
τ , pour i = 1,…, I, j = 1,…,ω
i
.
2.2 Simulation des prestations futures
o 2.2.1 : Simulation des prestations futures hors inflation
On simule les réalisations
b
i
x

τ
de v.a.r
b
i
X

τ
par un tirage aléatoire selon une distribution

|
|
¹
|

\
|

τ
∧ ∧

⋅ φ
φ
b
i m
1 1
, G .
o 2.2.2 : Simulation de l’inflation future
Par le tirage aléatoire de variables gaussiennes
88
ε, on simule les taux d’inflation à partir du
modèle d’inflation ajusté au chapitre I :

12
1
.
12
1
12
12
1
⋅ +
|
|
|
¹
|

\
|
− + ⋅ ⋅ =

∧ ∧

+
σ ε
β β
η
t
t
i i .
A partir de la trajectoire d’inflation simulée, on en déduit par l’équation (12) les indices
d’inflation
b
t
b
ij
CP


associés aux dates de règlement
b
ij
t

.

88
Les variables uniformes sont simulées à partir de l’algorithme du Tore et les gaussiennes à l’aide de l’algorithme de Gauss-Müller.
Calcul du risque de provisionnement 107
o 2.2.3 : Calcul d’une réalisation de R
On suppose que l’effet de l’actualisation est le même dans les scénarios bootstrap et dans
le scénario du Best Estimate. En appliquant les indices d’inflation aux prestations futures
simulées, et après actualisation à la courbe des taux, on obtient une réalisation de R :

( )
b
ij
b
ij
b
ij
t , 0 r . t
b
t
b
i
b
e CP m R
∗ ∗





τ


⋅ ⋅ =

.
La fonction de répartition et les quantiles empiriques associés à la suite ( )
B , , 1 b
b
R
L =
∗ ∗
sont
des estimations de la distribution prédictive et des quantiles théoriques de R.
II.2 L’application numérique
Le calcul du risque ultime est mené en deux temps. Nous estimons les paramètres de
régression initiaux (étape 1) et les paramètres de régression bootstrapés (étape 2.1) à partir du
logiciel SAS
89
. Les calculs relevant de l’étape 2.2 sont menés sous tableur Excel, après
récupération des paramètres de régression bootstrapés.
La distribution des provisions est obtenue empiriquement à partir de 10000 simulations.
Elle est présentée à la figure 53 sous la forme d’un histogramme.
Figure 53 – Histogramme des provisions
0,0%
0,1%
0,2%
0,3%
0,4%
0,5%
0,6%
0,7%
0,8%
0,9%
1,0%
158,3 174,3 190,3 206,3 222,3 238,3 254,3 270,3 286,3 302,3 318,3 334,3 350,3 366,3 382,3
Bootstrap
LN(19,2811 ; 0,1305)

On remarque que la densité empirique de la loi des provisions n’est pas symétrique, avec
une queue de distribution étalée vers la droite. L’étude de l’étalement des queues de
distribution se fait à l’aide du coefficient de dissymétrie (en anglais, skewness).

89
La programmation sous SAS de la procédure figure en annexe Q.
Calcul du risque de provisionnement 108
Dans le cadre du Bootstrap, on utilise son estimateur naturel

( )
( ) ( )
3
B
1 b
b
1
R var R E R B 1

=
∧ ∧


|
|
¹
|

\
|
|
¹
|

\
|
− ⋅ = γ ,
où ( ) ( ) R et R E
∧ ∧
var sont issus de la distribution des R
*b
.
La valeur de l’estimateur Bootstrap du skewness présentée au tableau 23 témoigne de la
dissymétrie à droite de la distribution des provisions
90
. Rappelons que ce résultat correspond à
un postulat souvent utilisée en pratique, consistant à supposer que la distribution des
provisions admet une queue de distribution étalée à droite. Dans la modélisation de la
distribution des provisions, il s’avère essentiel dans notre cas de tenir compte de cette
dissymétrie à droite, de sorte à ne pas sous-évaluer le risque de perte mesuré par la VaR.
Dans la pratique, la loi log-normale est ainsi souvent privilégiée pour modéliser la
distribution des provisions. Par exemple, cette hypothèse est celle adoptée dans la formule
standard du risque de provisionnement décrite dans les spécifications techniques du QIS4. A
partir des estimateurs Bootstrap de la moyenne et de l’écart type de R, on calibre les
paramètres de R ≈ LN(m,s
2
). Pour cela, on inverse les relations
( )
( )
2 2 2
2 2 5 . 0
1 ,
s m s s m
e e e
+ − +
⋅ − = = σ µ .
soit ( ) ( )
2
2
1 ln , 5 . 0 ln
2 2
µ
σ
µ + = ⋅ − = s s m , avec µ = E(R) et σ = Var(R).
On obtient R ≈ LN(19.28 , 0.13). Que ce soit graphiquement à partir de la figure 53, où
numériquement à partir des quantiles et du skewness
91
du tableau 23, on note la proximité
entre la loi log-normale calibrée et la distribution empirique des provisions. On remarque
aussi la forte proximité entre la moyenne empirique obtenue par Bootstrap et le Best Estimate.
Tableau 23 – Résultats Bootstrap

Bootstrap Log-normale
Moyenne 238 435 175 -
Ecart type 31 260 767 -
VaR
75%
258 096 612 258 173 116
VaR
95%
293 243 810 293 040 601
VaR
99,50%
332 531 877 330 911 134
Skewness 0,417 0,396
La charge en capital pour couvrir le risque de provisionnement correspond à l’excédent de
la VaR au seuil de 99,5% par rapport à la provision Best Estimate, soit
. 682 539 94 195 992 237 877 531 332 C
995 . 0
= − =

90
On rappelle que si γ1 = 0, la distribution est symétrique; si γ1 > 0, la distribution présente une queue étalée vers la droite; sinon, la
distribution présente une queue étalée vers la gauche.
91
On rappelle que le skewness d’une loi log-normal est défini par 1 2
2 2
− ⋅ |
¹
|

\
|
+
σ σ
e e .
Calcul du risque de provisionnement 109
III. Le calcul du risque à un an
III.1 La modification de la méthode du Bootstrap
III.1.1 Principes
Dans le calcul du risque à un an, nous suivons les principes présentés par Björkwall et al
(2008). Il s’agit de procéder à l’estimation de la distribution du Best Estimate à un an tout en
conditionnant les calculs à l’information disponible en t
0
, soit le triangle de liquidation ∇X
des coûts moyens vu en t
0
.
L’estimation
) 0 (
R

de la provision en t
0
est considérée fixe, tandis que la distribution des
prestations de l’année à venir est obtenue en simulant B fois la nouvelle diagonale X
*
du
triangle de liquidation. Chaque élément de X
*
est égal au coût moyen par année de survenance
des prestations simulées sur l’année {X

; τ = τ
i1
, …,
i

τ }.
De cette façon, on obtient B pseudo-triangles constitués du triangle ∇X et de la diagonale
X
*
. Pour chaque simulation, on recalcule la provision dans un an
( )




∪ ∇ = X X R R
) 1 ( ) 1 (
.
Dans le calcul de


) 1 (
R , le risque de taux n’est pas pris en compte. En d’autres termes, on
suppose que l’effet de l’inflation et de l’actualisation sont les mêmes dans les scénarios
bootstrap et dans le scénario du Best Estimate. En ce sens :
- Les indices d’inflation sont calculés en base t
0
à partir de la courbe Best
Estimate des taux d’inflation calibrée au chapitre précédent.
- Dans l’actualisation, on utilise les taux forward
92
déduits de la courbe des taux
zéro coupon utilisée dans le calcul du Best Estimate. Autrement dit, les
anticipations sous jacentes à la courbe ne sont pas révisées.
Finalement, on obtient B valeurs de
X R X I R
I
i
b
i
i
i
i
∇ − − +


= =
∗ ∗

∑ ∑

) 1 (
1
) 0 (
,
1 ,
,
λ
τ
τ
τ τ
,
dont on déduit la distribution du résultat de liquidation des sinistres en cours dans un an.

92
En désignant par r0,m le taux zéro coupon en t0 d’échéance m mois, on rappelle que le taux forward f12,m d’échéance m mois dans 12 mois
est tel que ( )
( )
( )
12 , 0
r 1
12
m 12
m 12 , 0
r 1
12
m
m , 12
f 1
+
+
+
+
= + Autrement dit, placer aujourd’hui sur 12+m mois doit équivaloir à placer aujourd’hui à un an
(m=12) au taux r0,12 et réinvestir dans un an à m mois au taux à terme f12,m anticipé aujourd’hui.
Calcul du risque de provisionnement 110
III.1.2 Algorithme
Afin de calculer le risque à un an, l’algorithme du Bootstrap est modifié comme suit :
1. Préliminaires
1.1 Ajustement du modèle
Cette étape fournit les estimations en t
0
des paramètres ξ du modèle de provisionnement et
du coefficient φ de dispersion.
1.2 Calcul de la courbe des taux à un an
De la courbe des taux zéro coupon utilisés dans le calcul du Best Estimate, on déduit les
taux forward dans un an tels que
( )
( )
( )
12 , 0
12
m 12
m 12 , 0
12
m
m , 12
r 1
r 1
f 1
+
+
= +
+
+
,
où r
0,m
désigne le taux zéro coupon aujourd’hui d’échéances m mois et f
12,m
le taux forward
dans un an d’échéance m mois.
2. Procédure itérative
Pour chaque itération b = 1,…, B, le processus se poursuit ainsi :
2.1 Simulation des prestations de l’année à venir
2.1.1 : Simulation des dates de règlement
• Par le tirage aléatoire de variables uniformes U[0;1], on associe à chaque sinistre
restant à régler une date de règlement
( ) u 1 ln
c
1
t t
i
0
b
ij
− − =

, pour i = 1,…, I, j ∈ [1,…,ω
i
].
• On en déduit les dates de règlement des sinistres réglés dans l’année :
j t t t t
b
ij
b
b
i
i
b
i
∀ + ≤
∗ ∗


1 , ,
0 1
λ
L , pour i = 1,…, I.
et les temps opérationnels associés

i
b
i i b
i
i
i b
i
N
N
N
N
b
i
5 , 0
, ,
5 , 0
0 ,
,
0 ,
1 ,
− +
=
+
=

∗ ∗

λ
τ τ
λ
L .
Calcul du risque de provisionnement 111
2.1.2 Calcul des prestations « prévues » hors inflation
A partir du modèle GLM
93
et des couples simulés (
b
ij

τ ,
b
ij
t

), on calcule les prestations
espérées sur l’année :
( )
(
¸
(

¸

|
|
¹
|

\
|
= =
∗ ∗
∧ ∧




b
ij
b
ij
b
i
b
i
t X E m
ij
ij
, , exp τ ξ η
τ
τ
, pour i = 1,…,I, j = 1,…,
b
i

λ .
2.1.3 Calcul des prestations réelles
• A partir des espérances
b
i
ij
m

τ

calculées à l’étape précédente, on simule les réalisations
b
i
ij
x

τ
de v.a.r
b
i
ij
X

τ
par un tirage aléatoire selon une distribution

|
|
|
¹
|

\
|




∧ b
ij
i
m
G
τ
φ
φ
1 1
, , pour i = 1,…,I, j = 1,…,
b
i

λ .
• Selon la méthode déjà utilisée et à partir d’une trajectoire de taux simulée à l’aide du
modèle ad hoc, on revalorise de l’inflation les prestations
b
i
ij
x

τ
. On note
b
i
~
ij
x

τ
les
prestations revalorisées.
2.2 Génération du pseudo triangle
2.2.1 Calcul des éléments de la nouvelle diagonale X*
On calcule par survenance le coût moyen des prestations hors inflation simulées en 2.1.3 :

b
i
b
i
j
j
b
ij
i
x
b
b
i
i
i
X


=
=

=



λ
λ
τ
λ
τ
1
,
,
,
pour i = 1,…,I,
2.2.2 Génération du pseudo triangle

∪ ∇ X X
On ajoute au triangle de liquidation ∇X les éléments de la nouvelle diagonale X
*
composée
des coûts moyens simulées en 2.2.1, en leur associant les temps opérationnels
b
i
, i

λ
τ des
derniers sinistres réglés
94
.

93
Avec
b
ij
c
3
b
ij
to
4
b
ij
to
3
b
ij
to
1
s
b
ij
b
ij
t 9 , 0 6 , 0 2 , 0 t , ,

∧ +

∧ +

∧ +

∧ ∧
∗ ∗
∧ ∧
⋅ ξ + |
¹
|

\
|
− τ ⋅ ξ + |
¹
|

\
|
− τ ⋅ ξ + |
¹
|

\
|
τ − ⋅ ξ + ξ =
|
|
|
¹
|

\
|
ξ η .
94
De cette façon, on respecte la structure du triangle de liquidation, constitué des coûts moyens calculés à partir des prestations annuelles
retraitées de l’inflation par Taylor.
Calcul du risque de provisionnement 112
2.3 Calcul du résultat de liquidation des sinistres en cours
2.3.1 Ajustement du modèle
On met à jour le modèle de provisionnement de l’information de l’année : à partir du
pseudo triangle

∪ ∇ X X , on ajuste les coefficients de régression

ξ du modèle.
2.3.2 Calcul de la provision dans un an
Après actualisation à la courbe des taux forward, on obtient une réalisation de R
(1)
:

( )
b
ij
b
ij
b
ij
t , 0 f . t
t
b
i
b ) 1 (
e CP m R
∗ ∗




τ



⋅ ⋅ =

,
où les indices
95
d’inflation CP
t
sont calculés en base t
0
à partir de la courbe des taux
d’inflation Best Estimate.
2.3.3 Calcul des intérêts
Un calcul rigoureux nécessiterait en 2.1.3 de capitaliser les prestations simulées au taux
zéro coupon de l’échéance du mois du règlement. Pour des raisons de temps de calcul, les
intérêts I
*
sont estimés par le produit de la provision moyenne et du zéro coupon à six mois.
2.3.4 Calcul du résultat de liquidation des sinistres en cours
On obtient une réalisation du résultat de liquidation des sinistres en cours :
X R x I R
b ) 1 (
I
1 i
b
~
b
) 0 (
b
i
, i
1 , i
, i
∇ − − +


=
τ
τ = τ



∑ ∑

λ
τ

III.1.3 L’application numérique
Une itération est constituée de quatre étapes principales: la première consiste dans le calcul
des prestations réglées durant l’année, la seconde dans celui des coûts moyens constitutifs de
la nouvelle diagonale du triangle, la troisième dans le calcul de la provision à un an et la
dernière dans celui du résultat de liquidation. Les calculs sont effectués sous Excel, sauf dans
le cas du réajustement du modèle au triangle vu à un an qui est mis en œuvre sous SAS.

Calcul des prestations de l’année
Nous simulons les prestations réglées sur l’année, brutes et nettes d’inflation. Les montants
hors inflation sont utilisés dans le calcul des coûts moyens constitutifs de la nouvelle
diagonale du triangle. Les montants inflatés correspondent aux montants « réels » payés sur
l’année à venir. Ils sont utilisés dans le calcul du risque de provision.

95
Se reporter au III.4 du chapitre précédent pour un rappel sur la construction de l’indice.
Calcul du risque de provisionnement 113
• Calcul hors inflation
La première étape consiste à déterminer le nombre et la date de règlement des sinistres
réglés dans l’année à venir, soit entre t
0
et t
0
+1. Cet exercice passe par la simulation des dates
de règlement des sinistres restant à régler. Selon la méthode décrite à l’étape 2.1.1, le nombre
de sinistres réglés dans l’année correspond pour chaque survenance i aux (N
i
– N
i,0
) tirages
dans la loi exponentielle de paramètre c
i
pour lesquels t – t
0
≤ 1. La répartition des nombres de
règlements simulés sur l’année est exposée à la figure 54.
Figure 54 - Répartition du nombre des règlements de l’année
0%
1%
2%
3%
4%
5%
6%
7%
8%
9%
10%
565 590 615 640 665 690 715

A chaque itération, on suppose connues les espérances des prestations de l’année. Ces
espérances sont calculées selon les dates de règlement simulées, et à partir du modèle de
provision utilisé dans le calcul du Best Estimate. La connaissance des prestations espérées
permet de calibrer les lois gamma à partir desquelles on simule hors inflation les prestations
de l’année (1
ère
partie de l’étape 2.1.3).
• Calcul avec inflation
A chaque itération, on simule une trajectoire d’inflation à partir du modèle ad hoc. A partir
de cette trajectoire, on revalorise de l’inflation les prestations simulées dans l’année (2
ème

partie de l’étape 2.1.3). Leur répartition est présentée en figure 55.
Figure 55 - Répartition des prestations de l’année à venir
en millions de dollars
0%
1%
2%
3%
4%
5%
6%
7%
8%
9%
10%
31,2 33,2 35,2 37,2 39,2 41,2 43,2

Calcul du risque de provisionnement 114

Calcul de la nouvelle diagonale
A chacune des B itérations, on forme la matrice des coûts moyens par survenance (étape
2.2.1) et des variables explicatives associées
96
. La matrice est présentée dans la partie gauche
du tableau 24 dans le cas de la 1
ère
simulation. Elle correspond au 1
er
des B blocs constitutifs
de la table « Diag » du programme SAS présenté en annexe S. La partie droite du tableau 24
est présentée à titre informatif. On y voit les prestations avec inflation et le nombre des
règlements simulés sur l’année.
Tableau 24 – Coûts moyens, variables explicatives, prestations réelles et nombre de sinistres
réglés dans l’année, pour b = 1
n_simu i t τ
s
r
z

to
1 , r
z

to
3 , r
z

to
4 , r
z

c
1 , 1 , r
z
c
2 , 1 , r
z
c
1 , 2 , r
z
c
2 , 2 , r
z

c
3 , r
z

S
r

1
~
, i
x

τ

1
i

λ

1
3 18 0,99 1 0 0,39 0,09
0 0 0
0 18 75 626 230 706 3
1
4 18 1,00 1 0 0,40 0,10
0 0 0
0 18 0 0 0
1
5 18 1,00 1 0 0,40 0,10
0 0 0
0 18 116 700 120 381 1
1
6 18 0,99 1 0 0,39 0,09
0 0 0
0 18 100 307 309 280 3
1
7 18 0,99 1 0 0,39 0,09
0 0 0
0 18 69 230 141 370 2
1
8 18 0,99 1 0 0,39 0,09
0 0 0
0 18 113 854 925 975 8
1
9 18 0,96 1 0 0,36 0,06
0 0 0
0 18 89 035 629 624 7
1
10 18 0,95 1 0 0,35 0,05
0 0 0
0 18 144 748 2 951 845 20
1
11 18 0,92 1 0 0,32 0,02
0 0 0
0 18 131 827 2 415 614 18
1
12 18 0,91 1 0 0,31 0,01
0 0 0
0 18 143 289 3 208 227 22
1
13 18 0,87 1 0 0,27 0,00
0 0 0
0 18 121 211 4 559 636 37
1
14 18 0,81 1 0 0,21 0,00
0 0 0
0 18 104 002 6 983 751 66
1
15 18 0,69 1 0 0,09 0,00
0 0 0
0 18 51 165 4 698 745 90
1
16 18 0,59 1 0 0,00 0,00
0 0 0
9 18 15 411 2 071 060 132
1
17 18 0,33 1 0 0,00 0,00
0 0 0
9 18 33 171 7 282 464 217



36 528 678 626
La figure 56 présente les éléments de la diagonale dans le cas de la première simulation :
Figure 56 – Nouvelle diagonale du triangle, pour b = 1.
Année de développement
Survenance 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 130 534 94 872 74 381 43 125 49 798 119 241 56 186 132 365 133 150 38 841 7 117 64 720 27 769 139 801 101 458 0
2 126 400 73 450 65 272 94 700 50 724 73 244 101 454 111 192 161 205 48 120 130 199 25 628 145 965 236 510 222 999 0
3 142 922 53 569 75 969 134 428 26 216 114 488 137 272 120 653 98 592 127 478 94 475 44 363 9 557 15 013 17 692 75 626
4 67 472 47 675 90 638 47 452 96 535 150 236 96 981 72 585 97 669 89 080 183 468 73 874 213 778 89 698 0
5 61 019 48 791 27 581 54 227 128 117 98 724 132 142 67 005 34 724 74 001 198 052 76 832 73 487 116 700
6 84 688 31 068 39 669 77 251 102 854 110 995 186 244 45 039 187 164 97 756 157 318 184 301 100 307
7 50 255 29 262 33 885 68 338 74 462 76 805 49 374 113 187 81 258 133 414 152 248 69 230
8 43 593 28 110 37 198 50 362 66 960 56 598 170 193 89 717 119 489 60 228 113 854
9 39 386 25 522 22 933 69 552 48 843 151 003 119 498 185 511 154 857 89 035
10 71 524 20 795 27 242 40 475 79 327 94 530 112 488 107 193 144 748
11 46 621 21 575 19 239 68 157 100 487 136 249 125 275 131 827
12 82 650 19 338 31 394 40 694 121 338 159 643 143 289
13 56 671 38 000 24 200 52 006 124 096 121 211
14 129 733 20 162 25 597 127 427 104 002
15 83 020 17 894 39 411 51 165
16 43 769 17 231 15 411
17 33 265 33 171


96
Les variables explicatives sont celles définies dans le modèle final de provisionnement ayant servi au calcul du Best Estimate. Elles sont
présentées au tableau 12. A noter qu’on associe à chaque coût moyen le temps opérationnel du dernier sinistre réglé de la survenance.
Calcul du risque de provisionnement 115

Calcul de la provision à un an
Le risque de provision a été présenté comme le résultat de deux effets :
- Celui d’un évènement adverse impactant le niveau des prestations de l’année. Cette
période, qualifiée de « période de choc », est simulée dans l’étape précédente.
- Celui d’une « période affectée » débutant en fin d’année, au titre de laquelle l’évènement
adverse conduit à réévaluer les provisions. Ce calcul constitue l’objet de cette étape.
La mise en œuvre du calcul de la provision à un an est structurée en deux temps :
- La première étape consiste à intégrer l’information de l’année dans la prévision des
prestations futures. En ce sens, on réajuste sous SAS le modèle de provision au triangle
de liquidation augmenté de la nouvelle diagonale des coûts moyens.
- Dans un second temps, on calcule la provision selon la méthode décrite au chapitre I, à
partir du modèle réajusté et sous les conditions de taux prévalant dans un an. Sur ce
dernier point, le risque de taux n’est pas simulé
97
tandis que les conditions de taux à un an
sont extrapolées à partir des trajectoires moyennes estimées en t
0
.
A ce titre, rappelons que la courbe des taux zéro coupon est vue en pleine période de crise
financière
98
. La figure 57 superpose la courbe des taux à un an et celle des taux zéro coupon.
On observe un écart important entre les deux courbes, illustrant l’anticipation du marché
d’une remontée des taux à des niveaux plus habituels.
Figure 57 – Courbe des taux forward dans un an
0,0%
2,3%
4,6%
1 32 63 94 125 156 187 218 249 280
Durée en mois
Tauxzero
coupon
Forward 1 an


97
Les prestations sont actualisées à la courbe des taux forward à un an déduite de la courbe des zéro coupons prévalant en t0. Par ailleurs, on
revalorise ces prestations de l’inflation selon les indices en base t0 calculés à partir des taux d’inflation moyens calculée en t0.
98
On rappelle que la date t0 correspond au 30/09/2009.
Calcul du risque de provisionnement 116
La distribution de la provision à un an est présentée à la figure 58. De façon générale, on
observe une réduction de la volatilité de la provision par rapport à celle obtenue dans le calcul
du risque ultime. Ainsi, l’écart type empirique de la provision passe de 31,2 millions à 5,5
millions de dollars. En particulier, on remarque que le moindre étalement vers la droite de la
distribution de la provision, circonscrite par une loi normale, permet intuitivement d’anticiper
des malis moins importants que dans le cas du risque ultime.
Figure 58 – Histogramme de la provision à un an
Millions de dollars
0,0%
0,2%
0,4%
0,6%
0,8%
1,0%
1,2%
177 181 185 189 193 197 201 205 209 213 217 221
PM à un an
N(197,91 ; 5,55)

La moindre volatilité de la provision dans le cas du risque à un an résulte des différences
de modalité de calcul des deux provisions :
Dans le cas du risque ultime, on simule la volatilité des prestations futures jusqu’à
l’écoulement du risque. Dans le calcul du risque à un an, la volatilité de la provision provient
de celle des prestations de l’année, au travers du recalcul des paramètres du modèle de
provision. Or, la variabilité de ces paramètres est limitée par le faible poids des observations
de l’année dans l’ensemble des observations constitutives du triangle vu en t
0
.
Ensuite, le calcul du risque à un an est conditionnel à l’information en t
0
. De ce fait,
l’absence de rééchantillonage du triangle qui en découle limite également la volatilité de la
provision par rapport à celle obtenue dans le calcul du risque ultime.

Calcul du résultat de liquidation des sinistres en cours
A chaque itération, on obtient selon la procédure décrite un montant de prestations
inflatées et une provision à un an. Les intérêts techniques sont calculés à partir du produit du
taux zéro coupon à 6 mois et de la demi-somme des provisions d’ouverture et de fermeture.
Dans le calcul de la provision à un an, l’utilisation de la courbe des taux forward à un an
introduit un changement de méthode significatif par rapport au Best Estimate, dont les flux
sont actualisés à la courbe des zéro coupons. Pour mesurer cet effet dans la constitution du
résultat de liquidation des sinistres en cours, nous procédons en deux temps : dans
l’actualisation des prestations futures constitutives de la provision à un an, nous continuons
d’utiliser les taux zéro coupon avant de recourir aux taux forward à un an.
Calcul du risque de provisionnement 117
La distribution de la perte à un an est obtenue empiriquement à partir de B = 4000
simulations. Elles sont présentées aux figures 59 et 60 sous la forme d’un histogramme dans
le cas des deux scénarios d’actualisation. La charge en capital au titre du risque de
provisionnement correspond à la valeur en risque au seuil de 99,5% de la distribution.
Figure 59 – Histogramme de la perte à un an
Actualisation à la courbe des taux zéro coupon
0,0%
0,5%
1,0%
-
2
0
-
1
6
-
1
2
-
8
-
4
0 4 8 1
2
1
6
2
0

Figure 60 – Histogramme de la perte à un an
Actualisation à la courbe des taux à un an
0,0%
0,5%
1,0%
-
2
3
-
1
9
-
1
5
-
1
1
-
7
-
3
1 5 9 1
3
1
7

La mise en parallèle des figures 59 et 60 illustre l’effet du passage au taux forward sur la
répartition du résultat de liquidation des sinistres en cours. En effet, si dans le cas du maintien
de l’actualisation aux taux zéro coupon, on remarque sur la figure 59 que les simulations
aboutissent à une quasi équiprobabilité d’obtenir un boni ou un mali de liquidation sur
l’année, on remarque sur la figure 60 que les scénarios à boni sont largement prépondérants
99
.
Par ailleurs, l’utilisation de la courbe des taux forward atténue également le montant des malis
dans les scénarios à mali.

99
74% des simulations aboutissent à un boni sur liquidation, contre 52% dans le cas de l’actualisation aux taux zéro coupon.
Calcul du risque de provisionnement 118
Au final, on obtient une charge en capital de 14,3 millions de dollars par l’actualisation à la
courbe des zéros coupons, contre 10,6 millions en utilisant les taux forward. Dans ce dernier
cas, le tableau 25 permet de mesurer le poids de chaque survenance dans la formation de la
charge en capital.
On remarque également par l’observation du tableau 25 que la somme des VaR des pertes
par survenance est inférieure à la VaR du portefeuille. Autrement dit, la mutualisation des
pertes par survenance permet, du fait de leur indépendance, de réduire la charge en capital de
13,6 à 10,6 millions de dollars. On parle alors de sous additivité de la VaR
100
.
Tableau 25 – Quantile des pertes à un an par survenance
au seuil de 99,5%

i Var de la perte au seuil 99,5%

3 292 861
4 116 297
5 180 723
6 258 348
7 256 843
8 379 937
9 556 817
10 809 591
11 1 025 561
12 1 098 905
13 1 341 864
14 1 456 258
15 1 454 498
16 1 496 474
17 2 954 847

13 679 825

100
Approximativement parlant, la VaR n’est une mesure sous additive que si la distribution des pertes est « à peu près » gaussienne. Comme
le graphique 60 nous l’enseigne, nous nous trouvons dans ce cas de figure.
Calcul du risque de provisionnement 119
III.2 Le calcul par la formule standard du QIS4
III.2.1 Les principes de calcul
La formule standard du QIS4 traite de façon intégrée les risques de prime et de réserve. En
négligeant l’effet de l’actualisation des flux, la perte d’un portefeuille sur une période donnée,
disons l’année à venir n+1, dépend de deux agrégats : les primes P payées sur la période et la
charge S des sinistres sur la période.
On définit la quantité S par la somme des prestations payées X et de la variation de
provision ∆R sur la période. Selon la notation introduite à la première partie
101
, S s’écrit :

4 4 4 3 4 4 4 2 1
43 42 1
R
) 0 (
) 1 (
~
) 1 (
X
1
~
1
R R R X X S

|
¹
|

\
|
− + + |
¹
|

\
|
+ =
En début de période, seuls les montants de deux agrégats sont certains : celui R
(0)
de la
provision Best Estimate d’ouverture, et celui P des primes que l’on suppose connu. Alors, la
perte à un an, égale à l’excès de la charge des sinistres sur les primes, est définie en début de
période par la variable aléatoire L = S – P.
On désigne par V = R
(0)
+ P le montant de ressources disponible en début de période, et on
définit le ratio combiné aléatoire Z tel que
.
R P
R R X
Z , 1 Z 1
V
R R X
V
L
) 0 (
) 1 (
~
) 1 (
) 1 (
~
) 1 (
+
+ +
= − = −
+ +
=
Le modèle de Solvabilité II suppose que le ratio combiné est distribué selon une loi log-
normale, avec Z ≈ LN(m,σ), où m = E(lnZ) et s
2
= Var(lnZ). Selon le principe d’équivalence
actuariel, on suppose que le risque de perte est nul en espérance, soit
E(S – P) = 0, d’où E(Z) = 1.
Par définition de la loi log-normale, on a par ailleurs
( ) ( )
( )
( )
2
s
2
s m 2 2
2
2
s
m
e 1 e
V
L
Var Z Var , 1 e Z E
− +
+
− ⋅ = σ =
|
¹
|

\
|
= = = µ = .
d’où [ ]
2 2
2
1 ln s ,
2
s
m σ + = − = .
Au seuil de confiance α = 99,5%, le référentiel Solvabilité II définit la charge de capital C
α

au titre des risques de prime et de réserve par la Value-at-risk de la perte à un an :
[ ] α − =
(
¸
(

¸

+ < = < −
α
α
1
V
C
1 Z P C P S P .

101
Se reporter au II.2 de la première partie.
Calcul du risque de provisionnement 120
Comme la fonction logarithmique est monotone croissante, on peut réécrire cette égalité
α − =
(
(
(
(
¸
(

¸

− |
¹
|

\
|
+
<

α
1
s
m
V
C
1 ln
s
m Z ln
P
Comme on suppose lnZ ≈ N(m,s), on a
α − = |
¹
|

\
|

)
`
¹
¹
´
¦
− |
¹
|

\
|
+ φ

α
1 s m
V
C
1 ln
1

où φ désigne la fonction de répartition de la loi normale standard.
En inversant l’équation, on trouve l’expression de la charge en capital :
( ) ( ) [ ] V 1 1 s m exp V C
1
⋅ ρ = − α − φ ⋅ + ⋅ =
α

α
.
En remplaçant m et s par leur expression en fonction de µ et σ, on retrouve l’expression de
ρ
α
définie dans les spécifications du QIS4 :
( )
( ) ( ) ( )
1
1
1 ln 1 exp
2
2 1

σ +
σ + ⋅ α − φ
= σ ρ

α
,
où ( ) σ ⋅ ≅ σ ρ
α
3 .
III.2.2 L’application numérique
Dans le calcul du capital requis, la formule standard tient compte de l’agrégation et de la
diversification entre les différentes branches. Le calcul est structuré en deux étapes :
• La première étape consiste à déterminer les écarts types et les mesures de
volume V pour chaque branche, pour les risques de primes et de provisions.
• La seconde étape consiste à agréger ces données pour chaque branche pour
définir la mesure de volume globale l’écart type global selon une matrice de
corrélation entre branches.
Dans notre cas monobranche où seul le risque de provision est étudié, le calcul consiste à
paramétrer directement dans la fonction ρ(σ) la volatilité de la branche étudiée et à appliquer
ce facteur à la provision Best Estimate d’ouverture. A ce sujet, le papier consultatif n°71
(CEIOPS, 2009) préconise dans le cas de la branche RC auto corporelle un niveau de
volatilité de σ = 12,5% (contre 12% lors du QIS4), déterminant dans le cas des données
étudiées une charge en capital de
. 543 460 87 367 , 0 195 992 237 C
995 . 0
= × =
Calcul du risque de provisionnement 121
III.3 Synthèse des résultats
Pour conclure ce mémoire, le tableau 26 récapitule les charges en capital obtenues à partir
des différentes méthodes présentées.
Tableau 26 – Récapitulatif des charges en capital
Risque à l’ultime Risque à un an
Bootstrap – zéro coupon 94 539 682 14 311 370
Bootstrap – taux forward 10 679 265
Formule standard du QIS4 87 460 543
On remarque la grande différence entre le calcul à l’ultime aboutissant à une charge en
capital de 94,6 millions de dollars, et celui spécifique à horizon un an conduisant à 10,6
millions de dollars de capital requis. Notons également que cette différence aurait été encore
plus importante si on avait simulé l’aléa portant sur le nombre des sinistres restant à régler
dans le calcul du risque ultime.
Dans la présentation du résultat à un an, nous avons abordé les principales raisons de cet
écart d’un point de vue purement méthodologique. D’un point de vue économique, il est clair
que les provisions constituées au titre des branches longues varient peu en valeur relative car
les nouvelles informations ont un poids relatif plus faible par rapport aux branches courtes.
De ce fait, certains auteurs (Ohlson et al, 2008) préconisent de retenir dans les modèles
internes un horizon intermédiaire de 3 à 5 ans dans le calcul du risque de provision
Enfin, nous notons dans le cas des données étudiées et compte tenu des méthodes
appliquées, que le résultat obtenu par application de la formule standard est davantage
comparable au calcul spécifique du risque à l’ultime qu’à celui du risque à un an. A ce sujet, il
est certain que la formule standard a été calibrée de sorte à capturer tant le risque de coût que
celui de fréquence sur l’horizon d’un an. En ce sens, il n’est pas rigoureux de rapprocher le
résultat de son application avec les calculs spécifiques mis en œuvre dans ce mémoire ne
simulant que l’aléa sur les coûts.
122

CONCLUSION
Tout au long de ce mémoire, nous avons présenté un modèle de provisionnement de type
coût moyen, construit dans le cadre des modèles linéaires généralisés. Nous avons montré
comment en déduire deux exigences quantitatives de Solvabilité II, à savoir le calcul de la
meilleure estimation de la provision pour sinistres et celui du risque de provisionnement.
La principale caractéristique du modèle est de supposer qu’il existe un lien invariant dans
le temps entre le coût moyen d’un sinistre et son temps opérationnel, soit la proportion vue au
moment de son règlement des sinistres finalisés de même année de survenance. Autrement
dit, on suppose que les variations du rythme de règlement des sinistres n’ont pour seule
conséquence que de compresser ou d’étendre la durée de règlement des sinistres, sans affecter
ni l’ordre, ni le montant de leurs prestations. Dans le cas des données étudiées, nous avons
observé un lien croissant entre le coût moyen des sinistres et leur ordre de règlement.
La plausibilité de cette hypothèse dite « d’invariance de l’ordre », doit évidemment être
vérifiée avant d’utiliser le modèle. En effet, elle peut être remise en cause de nombreuses
façons. En particulier, un changement dans la répartition des types de sinistres peut constituer
une violation importante. Par exemple dans l’assurance responsabilité civile automobile, la
proportion des sinistres graves peut croître du fait d’une décision de justice et ainsi augmenter
à partir de cette date le coût moyen des sinistres sur des intervalles de temps opérationnel.
Notons qu’une bonne utilisation du modèle repose également sur la nature des données
utilisées. Par exemple, l’information disponible dans la pratique est souvent celle utilisée dans
ce mémoire, à savoir les données agrégées du triangle des prestations payées (déflatées) et des
nombres de sinistres réglés. Sur ce point, on peut regretter de ne pas avoir disposé des
données individuelles, dont l’utilisation aurait permis une modélisation plus fine du lien entre
le coût moyen et le temps opérationnel, notamment dans les premiers intervalles de temps
opérationnel denses en nombres de règlements. Par ailleurs, et malgré la solution proposée par
Wright, on peut également regretter l’absence de retraitement des données des paiements
partiels, qui biaise les observations de coûts moyens.
Une autre limite résulte de l’estimation purement statistique des prestations restant à payer.
Dans le cas des vieux dossiers, il est clair que cette méthode d’évaluation n’est pas en
cohérence avec la réalité de l’activité des compagnies qui privilégient l’évaluation dossier par
dossier. Dans notre cas, la méconnaissance du portefeuille ne nous permet pas cette approche.
Enfin, remarquons que le calcul de la provision pour sinistres reste largement soumis à la
plausibilité des estimations de sinistres survenus et restant à régler. Sur ce point, il est clair
que l’absence de considération de l’aléa sur les nombres de sinistres restant à régler a limité
l’écart déjà important entre les charges de capital calculées au titre du risque de provision
dans une optique ultime et à un an. A ce sujet, le lecteur intéressé pourra se reporter au papier
de Taylor (1981) proposant un modèle d’estimation des sinistres restant à régler.
En résumé, nous avons montré que le modèle présenté peut constituer une solution adaptée
en cas d’instabilité de la cadence des règlements, dès lors que l’hypothèse d’invariance de
l’ordre est respectée. De ce fait, son utilisation peut être profitable dans le cas des branches
longues, exposées à de nombreux facteurs perturbateurs de la stabilité des cadences. Le
modèle est également adapté aux branches longues, dès lors qu’il prévoie la modélisation des
facteurs de queue et permet d’intégrer la modélisation de l’inflation, soit directement dans sa
structure paramétrique, soit à partir d’un modèle dédié, comme c’est le cas dans ce mémoire.
Bibliographie 123

BIBLIOGRAPHIE
[1] ACAM (2007), « Rapport du groupe de travail sur le calcul du best estimate en
assurance dommages ».
[2] AISAM-ACME (2007), « Aisam-Acme study on non life long tail liabilities. Reserve
risk and risk margin assessment under Solvency II ».
[3] Ahlgrim K.C., D’Arcy S.P., Gorvett R.W. (2001),« Modelling Financial Scenarios : A
Framework for the Actuarial Profession », Casualty Actuarial Society Forum.
[4] Anderson D., Feldblum S., Modlin C., Schirmacher D. et E., Thandi N. (2005), « a
Practitioner’s guide to Generalised Linear Models, second edition », a Casualty
Actuarial Society Study Note.
[5] Bayazit D. (2004), « Yield Curve Estimation and Prediction with Vasicek Model », A
Thesis Submitted to the Graduate School of Applied Mathematics of The Middle East
Technical University, Master of Science in the Department of Financial Mathematics,
Turkey.
[6] Björkwall S., Hössjer O., Ohlsson E. (2008), « Non-parametric and parametric
bootstrap techniques for arbitrary age-to-age development factor methods in stochastic
claims reserving », Research report 2008:2, Mathematical Statistics, Stockholm
University.
[7] CEIOPS (2009), Consultation Paper n° 71 : « Draft CEIOPS’Advice for level 2
implementing measures on Solvency II : SCR standard formula, calibration of non-life
underwriting risk », CEIOPS-CP-71-09.
[8] Denuit M., Charpentier A. (2004), « Mathématiques de l’assurance non vie – tome I :
principes fondamentaux de théorie du risque », Economica.
[9] Dhaene J, Goovaerts M, Van Weert K (2008), « Some comments on QIS 3 ».
[10] Dhaene J., Laeven R.J.A., Vanduffel S., Darkiewicz G., Goovaerts M.J. (2004), « Can
a coherent risk measure be too subadditive ? », Research Report OP 0431, Department
of Applied Economics, Katholieke Universiteit Leuven.
[11] England P., Verrall R. (1999), Analytic and bootstrap estimates of prediction errors in
claim reserving », Insurance : Mathematics and Economics, Vol. 25, p 281-293.
[12] Groupe Consultatif Actuariel Européen (2008), « Valuation of Best Estimate under
Solvency II for Non-life Insurance », Interim Report.
[13] Hürlimann W. (2008),« On the non-life Solvency II model », 38
th
international Astin
colloquium, Manchester, 13-16 July 2008.
[14] Kaufmann R., Gardner A., Klett R. (2001), « Introduction to Dynamic Financial
Analysis », Astin Bulletin, vol. 31, 213-249.
Bibliographie 124

[15] Lacoume A. (2008), « Mesure du risque de réserve sur un horizon de un an ».
Mémoire I.S.F.A.
[16] Mack T. (1993), « Distribution-free calculation of the standard error of Chain-ladder
reserve estimates », ASTIN Bulletin, 23, pp. 214-225.
[17] Münchener Rück (2007), « Les préjudices corporels graves en Europe : exemple de
l’assurance automobile : responsabilité, indemnisation et inflation », Munich Re
Group.
[18] Ohlsson E., Lauzeningks J. (2008), « The one-year non-life risk », Astin Colloquium
presentation, Manchester.
[19] Planchet F., Thérond P., Jacquemin J. (2005), « Modèles Financiers en Assurance –
analyses de risque dynamiques », Assurance – Audit – Actuariat, Economica.
[20] Planchet F., Jacquemin J. (2003), « L’utilisation de méthodes de simulation en
assurance – partie 1 : générer des nombres aléatoires », Bulletin français d’actuariat,
Vol. 6, N°11, juin-décembre 2003, pp. 3-35.
[21] Parlement Européen (2009), « Résolution législative du Parlement européen du 22
avril 2009 sur la proposition modifiée de directive du Parlement européen et du
Conseil sur l’accès aux activités de l’assurance directe et de la réassurance et leur
exercice (refonte) ».
[22] Pinheiro P.J.R., Andrade e Silva J.M., Centeno M.D.L. (2000),« Bootstrap
Methodology in Claim Reserving », Center for Applied Maths to Forecasting &
Economic Decision.
[23] Reid D.H. (1978), « Claim Reserves in General Insurance », Journal of the Institute of
Actuaries, 105, 211 – 296.
[24] SAS Institute Inc., SAS/STAT® User’s Guide, Version 8, Cary, NC: SAS Institute
Inc., 1999, Chapter 29. The GENMOD Procedure.
[25] SAS Institute Inc., Cassell D.L., Design Pathways, Corvallis, « Don’t Be Loopy : Re-
Sampling and Simulation the SAS Way », Paper 183 – 2007.
[26] Taylor G.C. (1981), « Speed of Finalization of claims and claims runoff analysis », ES
Knight & Co, Consulting Actuaries, Sidney Australia, Astin Bulletin 12 (81-100).
[27] Taylor G.C. (2000), « Loss Reserving, An Actuarial Perspective », Huebner
International Series on Risk, Insurance and Economic Security, Kluwer Academic
Publishers.
[28] Taylor G.C. (2004), Mac Guire G., « Loss reserving with GLMs : a case study »,
Taylor Fry Consultant Actuaries, Research paper n°113, May 2004.
[29] Saporta (2006), « Probabilité, Analyse des données et Statistique », Technip.
Bibliographie 125

[30] Wright T.S. (1992), « Stochastic Claims Reserving When Past Claims Numbers are
known », PCAS 1992.
[31] Wilkie A.D. (1995), « More on a stochastic asset model for actuarial use », British
Actuarial Journal, vol. 1, 777-964.
[32] Wütrich M.V., Merz M., Lysenko N. (2007), « Uncertainty in the claims development
result in the chain ladder method ». Preprint, ETH, Zurich.
[33] Zehnwirth B. (1994), « Probabilistic development factor models with applications to
loss reserve variability, prediction intervals and risk based capital », Casualty
Actuarial Society Forum.
Annexes 126

ANNEXES
A. Triangle des incréments
Tableau 27 - Triangle des incréments en dollars constants – base 31/12/1995

Survenance J = 1 J=2 J=3 J=4 J=5 J=6 J=7 J=8 J=9 J=10 J=11 J=12 J=13 J=14 J=15
1979 3 785 472 10 341 098 8 330 688 7 848 833 2 838 485 3 577 227 1 404 642 1 720 749 1 065 201 155 365 35 583 258 878 249 919 419 402 101 458
1980 4 676 818 9 989 145 8 746 390 10 227 581 8 572 427 5 786 244 3 855 239 1 445 496 1 612 047 625 563 1 171 794 589 440 437 895 473 020 445 997
1981 5 288 102 8 088 865 12 838 745 11 829 690 7 760 019 6 182 336 4 118 148 3 016 336 1 774 652 1 784 693 2 645 293 266 179 38 228 45 040 159 232
1982 2 294 033 9 868 776 10 242 138 13 808 440 8 784 714 5 408 507 2 424 513 1 596 870 2 148 708 3 295 949 917 338 295 496 427 555 358 790
1983 3 600 113 7 513 855 8 246 783 9 327 124 8 583 828 4 245 146 4 096 408 3 216 232 2 014 006 592 008 1 188 314 691 492 367 433
1984 3 641 604 7 394 227 9 838 006 9 733 605 6 376 966 4 883 761 11 919 643 4 188 607 4 491 930 1 759 602 943 909 921 506
1985 2 462 510 5 033 074 6 980 328 7 722 211 6 701 601 7 834 125 5 579 267 3 621 981 1 300 134 3 068 518 1 370 233
1986 2 266 831 5 959 341 6 174 882 7 050 748 8 102 196 6 338 960 6 977 904 4 396 156 3 106 706 903 427
1987 2 008 668 3 700 715 5 297 409 6 885 660 6 496 129 7 550 139 5 855 420 5 750 846 3 871 426
1988 1 859 624 5 281 998 3 650 396 7 528 393 5 156 246 5 766 328 6 861 793 2 572 620
1989 2 331 058 3 516 749 5 310 014 6 066 004 10 149 191 9 264 942 5 261 570
1990 2 314 198 4 486 419 4 112 650 6 999 427 11 163 077 10 057 508
1991 2 606 858 3 952 042 8 228 051 7 904 933 9 307 208
1992 2 594 652 5 403 501 6 578 467 15 546 107
1993 3 154 749 4 974 522 7 960 929
1994 2 626 146 5 703 493
1995 2 827 488
f1 f2 f3 f4 f5 f6 f7 f8 f9 f10 f11 f12 f13 f14
f
j
3,130 1,802 1,542 1,298 1,191 1,132 1,069 1,047 1,029 1,021 1,009 1,005 1,006 1,004
f

j
18,355 5,864 3,255 2,110 1,625 1,365 1,205 1,128 1,077 1,047 1,025 1,016 1,010 1,004
Dernier ex 3,172 1,979 2,067 1,410 1,346 1,144 1,071 1,089 1,018 1,027 1,014 1,007 1,006 1,002
2 derniers ex. 2,847 1,902 1,799 1,504 1,342 1,184 1,113 1,077 1,041 1,020 1,014 1,007 1,003 1,005
3 derniers ex. 2,920 2,004 1,756 1,529 1,314 1,184 1,109 1,061 1,036 1,021 1,011 1,005 1,005 1,004
4 derniers ex. 2,824 1,912 1,710 1,470 1,313 1,187 1,103 1,066 1,030 1,020 1,009 1,005 1,006 1,004
5 derniers ex. 2,844 1,911 1,708 1,450 1,291 1,179 1,096 1,061 1,036 1,024 1,009 1,005 1,006 1,004
Annexes 127

B. Triangle des nombres de sinistres réglés


Tableau 28 - Triangle des nombres de sinistres réglés

Survenance J = 1 J=2 J=3 J=4 J=5 J=6 J=7 J=8 J=9 J=10 J=11 J=12 J=13 J=14 J=15
1979
29 109 112 182 57 30 25 13 8 4 5 4 9 3 1
1980
37 136 134 108 169 79 38 13 10 13 9 23 3 2 2
1981
37 151 169 88 296 54 30 25 18 14 28 6 4 3 9
1982
34 207 113 291 91 36 25 22 22 37 5 4 2 4
1983
59 154 299 172 67 43 31 48 58 8 6 9 5
1984
43 238 248 126 62 44 64 93 24 18 6 5
1985
49 172 206 113 90 102 113 32 16 23 9
1986
52 212 166 140 121 112 41 49 26 15
1987
51 145 231 99 133 50 49 31 25
1988
26 254 134 186 65 61 61 24
1989
50 163 276 89 101 68 42
1990
28 232 131 172 92 63
1991
46 104 340 152 75
1992
20 268 257 122
1993
38 278 202
1994
60 331
1995
85

Annexes 128

C. Triangle des nombres de sinistres déclarés et restant à déclarer


Tableau 29 - Triangle des nombres de sinistres déclarés et restant à déclarer

Survenance J = 1 J=2 J=3 J=4 J=5 J=6 J=7 J=8 J=9 J=10 J=11 J=12 J=13 J=14 J=15
Sinistres
restant à
déclarer
102

1979
393 151 25 6 4 5 4 1 2 1 0 0 0 0 0
0
1980
517 185 29 17 11 10 8 1 0 0 1 0 0 0 0
0
1981
578 254 49 22 17 6 3 0 1 0 0 0 0 0 0
0
1982
622 206 39 16 3 7 0 1 0 0 0 0 0 0
0
1983
660 243 28 12 12 4 4 1 0 0 0 0 0
0
1984
666 234 53 10 8 4 6 1 0 0 0 0
0
1985
573 266 62 12 5 7 6 5 1 0 1
0
1986
582 281 32 27 12 13 6 2 1 0
0
1987
545 220 43 18 12 9 5 2 0
1
1988
509 266 49 22 15 4 8 0
1
1989
589 210 29 17 12 4 9
3
1990
564 196 23 12 9 5
8
1991
607 203 29 9 7
15
1992
674 169 20 12
26
1993
619 190 41
36
1994
660 161
66
1995
660
243


102
Les estimations des sinistres tardifs restant à déclarer (IBNR) ont été reprises de Taylor (2000), p 28.
Annexes 129

La projection des sinistres tardifs a été reconstituée selon l’approche décrite lors de la présentation des données (II.1.2 de la partie II). On y
précise les historiques pris en compte dans le calcul des coefficients de passage par Chain Ladder, ainsi que la valeur des coefficients obtenus à
partir du modèle ajusté :

Tableau 29 bis – Extrapolation du nombre des sinistres tardifs (Taylor, 2000)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 IBNR
1979 393 544 569 575 579 584 588 589 591 592 592 592 592 592 592 0
1980 517 702 731 748 759 769 777 778 778 778 779 779 779 779 779 0
1981 578 832 881 903 920 926 929 929 930 930 930 930 930 930 930 0
1982 622 828 867 883 886 893 893 894 894 894 894 894 894 894 894,0 0
1983 660 903 931 943 955 959 963 964 964 964 964 964 964 964,0 964,1 0
1984 666 900 953 963 971 975 981 982 982 982 982 982 982,1 982,1 982,1 0
1985 573 839 901 913 918 925 931 936 937 937 938 938,1 938,2 938,2 938,3 0
1986 582 863 895 922 934 947 953 955 956 956 956,2 956,3 956,4 956,5 956,5 0
1987 545 765 808 826 838 847 852 854 854 854,3 854,5 854,6 854,7 854,7 854,8 1
1988 509 775 824 846 861 865 873 873 873,6 873,9 874,1 874,2 874,3 874,3 874,3 1
1989 589 799 828 845 857 861 870 871,4 872,0 872,3 872,5 872,6 872,7 872,7 872,7 3
1990 564 760 783 795 804 809 814,0 815,3 815,8 816,1 816,3 816,4 816,5 816,5 816,6 8
1991 607 810 839 848 855 861,9 867,2 868,6 869,2 869,5 869,7 869,8 869,9 869,9 869,9 15
1992 674 843 863 875 884,8 892,0 897,5 898,9 899,5 899,9 900,1 900,2 900,2 900,3 900,3 26
1993 619 809 850 861,3 871,0 878,0 883,4 884,8 885,4 885,8 886,0 886,1 886,1 886,2 886,2 36
1994 660 821 851,0 862,3 872,0 879,0 884,5 885,9 886,5 886,8 887,0 887,1 887,2 887,2 887,3 66
1995 660 835,7 866,3 877,8 887,7 894,8 900,3 901,8 902,4 902,7 902,9 903,0 903,1 903,2 903,2 243
Méthode
Historique utilisé 6 derniers
Facteurs 1,26626 1,03656 1,01328 1,01125 1,00806 1,00618 1,00160 1,00065 1,00038 1,00023 1,00013 1,00008 1,00005 1,00003 1,00002
3 derniers exercices tout l'historique
Calcul par Chain Ladder Calcul à partir du modèle ajusté
Calcul des coefficients de passage


Annexes 130

D. Triangle des nombres de sinistres en cours


Tableau 30 - Triangle des nombres de sinistres déclarés et restant en cours (hors IBNR).

Survenance J = 1 J=2 J=3 J=4 J=5 J=6 J=7 J=8 J=9 J=10 J=11 J=12 J=13 J=14 J=15
1979
364 406 319 143 90 65 44 32 26 23 18 14 5 2 11
1980
480 529 424 333 175 106 76 64 54 41 33 10 7 5 14
1981
541 644 524 458 179 131 104 79 62 48 20 14 10 7 12
1982
588 587 513 238 150 121 96 75 53 16 11 7 5 1
1983
601 690 419 259 204 165 138 91 33 25 19 10 5
1984
623 619 424 308 254 214 156 64 40 22 16 11
1985
524 618 474 373 288 193 86 59 44 21 13
1986
530 599 465 352 243 144 109 62 37 22
1987
494 569 381 300 179 138 94 65 40
1988
483 495 410 246 196 139 86 62
1989
539 586 339 267 178 114 81
1990
536 500 392 232 149 91
1991
561 660 349 206 138
1992
654 555 318 208
1993
581 493 332
1994
600 430
1995
575


Annexes 131

E. Triangle des cadences de règlements


Tableau 31 – Cadence des règlements – estimation par la méthode Chain Ladder

Survenance J = 1 J=2 J=3 J=4 J=5 J=6 J=7 J=8 J=9 J=10 J=11 J=12 J=13 J=14 J=15
1979 9,0% 33,5% 53,3% 71,9% 78,7% 87,2% 90,5% 94,6% 97,1% 97,5% 97,6% 98,2% 98,8% 99,8% 100,0%
1980 8,0% 25,0% 39,9% 57,4% 72,0% 81,8% 88,4% 90,9% 93,6% 94,7% 96,7% 97,7% 98,4% 99,2% 100,0%
1981 8,0% 20,3% 39,8% 57,8% 69,6% 79,0% 85,2% 89,8% 92,5% 95,2% 99,2% 99,6% 99,7% 99,8% 100,0%
1982 3,7% 19,6% 36,1% 58,3% 72,4% 81,1% 85,0% 87,6% 91,1% 96,4% 97,8% 98,3% 99,0% 99,6% 100,0%
1983 6,6% 20,5% 35,7% 52,9% 68,7% 76,6% 84,1% 90,1% 93,8% 94,9% 97,1% 98,3% 99,0% 99,6% 100,0%
1984 5,4% 16,4% 31,1% 45,6% 55,1% 62,4% 80,1% 86,4% 93,1% 95,7% 97,1% 98,5% 99,0%
1985 4,7% 14,2% 27,3% 41,9% 54,6% 69,4% 79,9% 86,8% 89,2% 95,0% 97,6% 98,5%
1986 4,2% 15,3% 26,8% 40,0% 55,1% 66,9% 79,9% 88,1% 93,9% 95,6% 97,6%
1987 3,9% 11,2% 21,6% 35,1% 47,8% 62,6% 74,0% 85,3% 92,9% 95,6%
1988 4,3% 16,4% 24,7% 42,0% 53,8% 67,0% 82,8% 88,7% 92,9%
1989 4,6% 11,6% 22,1% 34,1% 54,2% 72,5% 83,0% 88,7%
1990 4,3% 12,7% 20,4% 33,5% 54,4% 73,3% 83,0%
1991 5,0% 12,6% 28,4% 43,6% 61,5% 73,3%
1992 4,1% 12,6% 22,9% 47,4%
1993 6,0% 15,5% 30,7%
1994 5,4% 17,1%
1995 5,4%

Annexes 132

F. Triangle des temps opérationnels


Tableau 32 – Triangle des temps opérationnel

Survenance J = 1 J=2 J=3 J=4 J=5 J=6 J=7 J=8 J=9 J=10 J=11 J=12 J=13 J=14 J=15
1979
4,90% 23,31% 42,23% 72,97% 82,60% 87,67% 91,89% 94,09% 95,44% 96,11% 96,96% 97,64% 99,16% 99,66% 99,83%
1980
4,75% 22,21% 39,41% 53,27% 74,97% 85,11% 89,99% 91,66% 92,94% 94,61% 95,76% 98,72% 99,10% 99,36% 99,61%
1981
3,98% 20,22% 38,39% 47,85% 79,68% 85,48% 88,71% 91,40% 93,33% 94,84% 97,85% 98,49% 98,92% 99,25% 100,00%
1982
3,80% 26,96% 39,60% 72,15% 82,33% 86,35% 89,15% 91,61% 94,07% 98,21% 98,77% 99,22% 99,44% 99,89%
1983
6,12% 22,10% 53,11% 70,95% 77,90% 82,37% 85,58% 90,56% 96,58% 97,41% 98,03% 98,96% 99,48%
1984
4,38% 28,62% 53,87% 66,70% 73,01% 77,49% 84,01% 93,48% 95,93% 97,76% 98,37% 98,88%
1985
5,22% 23,56% 45,52% 57,57% 67,16% 78,04% 90,09% 93,50% 95,20% 97,65% 98,61%
1986
5,44% 27,62% 44,98% 59,62% 72,28% 84,00% 88,28% 93,41% 96,13% 97,70%
1987
5,96% 22,92% 49,94% 61,52% 77,08% 82,92% 88,65% 92,28% 95,20%
1988
2,98% 32,07% 47,42% 68,73% 76,17% 83,16% 90,15% 92,90%
1989
5,73% 24,43% 56,08% 66,28% 77,87% 85,67% 90,48%
1990
3,43% 31,86% 47,92% 69,00% 80,27% 87,99%
1991
5,29% 17,24% 56,32% 73,79% 82,41%
1992
2,22% 31,96% 60,49% 74,03%
1993
4,29% 35,71% 58,53%
1994
6,77% 44,13%
1995
9,40%

Annexes 133

G. Triangle des coûts moyens par sinistre réglé


Tableau 33 – coûts moyens par nombre de sinistres réglés

Survenance J = 1 J=2 J=3 J=4 J=5 J=6 J=7 J=8 J=9 J=10 J=11 J=12 J=13 J=14 J=15
1979 130 534 94 872 74 381 43 125 49 798 119 241 56 186 132 365 133 150 38 841 7 117 64 720 27 769 139 801 101 458
1980 126 400 73 450 65 272 94 700 50 724 73 244 101 454 111 192 161 205 48 120 130 199 25 628 145 965 236 510 222 999
1981 142 922 53 569 75 969 134 428 26 216 114 488 137 272 120 653 98 592 127 478 94 475 44 363 9 557 15 013 17 692
1982 67 472 47 675 90 638 47 452 96 535 150 236 96 981 72 585 97 669 89 080 183 468 73 874 213 778 89 698
1983 61 019 48 791 27 581 54 227 128 117 98 724 132 142 67 005 34 724 74 001 198 052 76 832 73 487
1984 84 688 31 068 39 669 77 251 102 854 110 995 186 244 45 039 187 164 97 756 157 318 184 301
1985 50 255 29 262 33 885 68 338 74 462 76 805 49 374 113 187 81 258 133 414 152 248
1986 43 593 28 110 37 198 50 362 66 960 56 598 170 193 89 717 119 489 60 228
1987 39 386 25 522 22 933 69 552 48 843 151 003 119 498 185 511 154 857
1988 71 524 20 795 27 242 40 475 79 327 94 530 112 488 107 193
1989 46 621 21 575 19 239 68 157 100 487 136 249 125 275
1990 82 650 19 338 31 394 40 694 121 338 159 643
1991 56 671 38 000 24 200 52 006 124 096
1992 129 733 20 162 25 597 127 427
1993 83 020 17 894 39 411
1994 43 769 17 231
1995 33 265

Annexes

H. L’algorithme de Newton Raphson
L’algorithme de Newton Raphson généralise le processus de Newton dans le cas
multidimensionnel.
La méthode de Newton consiste pour estimer la racine de f(x) = 0 à utiliser un algorithme
construit à partir d’une linéarisation de la fonction au voisinage de la solution, sur la base du
développement de Taylor à l’ordre 1.
Comme on recherche ( ) ( ) ( ) ( )( )
0 0
'
0
x x x f x f x f et 0 x f x − + ≅ = , on propose la récurrence
( )
( ) ( )
( )
n
n
n n
n n
n
n
x f
x f
x x
x x
x f
x f
'
1
1
'
0
− ≅ ⇔


=
+
+

qui consiste à chaque n
e
itération à trouver x
n+1
désignant la racine de la tangente de f
calculé en x
n
. On peut montrer que si le premier terme de l’algorithme x
0
est choisi
suffisamment proche de la racine, alors f(x
n
) tend vers 0 à mesure que n augmente
103
.
Pour une optimisation à plusieurs dimensions, la technique de Newton Raphson conduit à
la même formule. Dans notre cas, on utilise comme fonction f la dérivée de la log-
vraisemblance par rapport aux coefficients
l
ξ avec

( )
( )
( )
( )
( ) ( )
( ) ( )
|
|
|
|
|
|
|
|
|
|
|
¹
|

\
|
ξ − ξ
ξ − ξ
|
|
|
|
|
|
|
|
¹
|

\
|
ξ ∂
ξ ∂
ξ ∂ ξ ∂
ξ ∂
ξ ∂ ξ ∂
ξ ∂
ξ ∂
ξ ∂
+
|
|
|
|
|
|
|
¹
|

\
|
ξ ∂
ξ ∂
ξ ∂
ξ ∂

|
|
|
|
|
|
|
|
¹
|

\
|
=
|
|
|
|
|
|
|
¹
|

\
|
ξ ∂
ξ ∂
ξ ∂
ξ ∂
+
+
+
+
n
p
1 n
p
n
1
1 n
1
H
2
p
n
2
1 p
n
2
p 1
n
2
1
n
2
s
p
n
1
n
p
1 n
1
1 n
l l
l l
l
l
0
0
l
l
M
M
M
M
M
M
4 4 4 4 3 4 4 4 4 2 1
L
M M
M O M
L
43 42 1
M
M
M
M
M
M
La formule itérative s’écrit matriciellement ( ) s H
n n n
⋅ ξ − ξ = ξ

+
1
1
, où H est la matrice
hessienne de la fonction l et s son gradient. Le cheminement de l’algorithme consiste alors à :
1- Déterminer un vecteur
0
ξ proche de la solution.
2- Répéter : ( ) s H
n n n
⋅ ξ − ξ = ξ

+
1
1
, jusqu’à ε < ξ − ξ
+ n 1 n
.

103
L’algorithme converge quadratiquement vers une racine x dans son voisinage si 0 ) x (
'
f ≠ , i.e
2
x
1 n
x C x
n
x −

≤ − pour C > 0, n
suffisamment grand et x0 suffisamment proche de x .
Annexes

I. L’algorithme du score
La substitution des éléments de la matrice H par leurs espérances simplifie l’expression
analytique de l’algorithme. Reprenons l’expression de
k
l ξ ∂ ∂ introduite dans le 2
e
chapitre de
la partie II. Les éléments de la matrice hessienne H sont définis par
104


( ) ( )
( )
( )
( )
( )
( )
) 1 ( z
S Var
1
S z
S Var
1
S
z
. S Var
S , , s l
r
k , r
r
r
r
r r
s r
k , r
r
r
r s
r r
m
1 r
k , r
r
r
r
r r
s k s
2
∑ ∑

(
¸
(

¸


η ∂
µ ∂
⋅ ⋅ µ −
ξ ∂

+
(
¸
(

¸


η ∂
µ ∂

ξ ∂

⋅ µ − =
(
¸
(

¸


η ∂
µ ∂

µ −
ξ ∂

=
ξ ∂ ξ ∂
φ θ ∂
=

Comme E(S
r
) = µ
r
, l’espérance du 1
er
terme de l’équation (1) est nulle. Par ailleurs, on a
( )
s , r
r
r
s
r
r
r
r r
s
z S ⋅
η ∂
µ ∂
− =
ξ ∂
η ∂

η ∂
µ ∂
− = µ −
ξ ∂


Comme
( )
r
'
r
r
g
1
µ
=
η ∂
µ ∂
, on en déduit :

( )
( ) ( ) ( ) ( ) ( ) ( )
∑ ∑
µ ⋅

− =
|
|
¹
|

\
|

µ ⋅

− =
|
|
¹
|

\
|
ξ ∂ ξ ∂
φ θ ∂
τ
r
2
r
'
r
s , r l , i
r
2
r
'
r
s , r l , r
k s
2
g S Var
z z
g S Var
z z
E
, , s l
E ,
de telle sorte que
( )
( ) ( ) ( ) Z W Z I
s L
E
n
n
⋅ ⋅ = =
(
(
¸
(

¸

∂ ∂

− ξ ξ
ξ ξ
ξ
'
'
2
,
,
où ( ) ξ
n
I désigne la matrice d’information de Fisher.
En utilisant l’expression de ( ) ξ ∂ ξ ∂l et celle de la matrice I
n
, l’algorithme du score s’écrit

( ) ( )
( ) ( ) ( ) ( )
( ) ( ) ( )
t
1
t '
1
1
t '
t
t
1
t '
1
1
t ' t
t
1
'
t
2
t 1 t
Y W Z Z W Z
S W Z Z W Z
S , L S , L
E







+
ξ ⋅ ξ =
µ −
µ ∂
η ∂
ξ ⋅ ξ + ξ =
ξ ∂
ξ ∂

(
¸
(

¸

|
|
¹
|

\
|
ξ ∂ ξ ∂
ξ ∂
− ξ = ξ

où ( ) ( )
t
t
n n
t
t t
S S Z Y µ −
µ ∂
η ∂
+ η = µ −
µ ∂
η ∂
+ ξ = .

104
On montre en II.2.2 du chapitre II de la partie II que
( )
( )
( ) ( )
∑ ∑

µ
µ −
=
ξ ∂

=
ξ ∂
φ ξ ∂
k
k , r
r
'
r
r r
k
k
r
k
z
g . S var
S l
S , l
.
Annexes

On remarque qu’un développement au 1
er
ordre de la fonction de lien g en µ donne
Y ) S ( ) ( g ) ( g ) S ( g
'
= µ − ⋅ µ + µ ≈ .
En ce sens, y(ξ) peut être considéré comme une approximation au 1
er
ordre de g(s) en µ(ξ).
C’est pourquoi une solution permettant d’obtenir une valeur de
0
ξ consiste à appliquer une
procédure de moindres carrés ordinaires sur g(s).
Par l’introduction de ( ) µ −
µ ∂
η ∂
+ η = S Y dans les équations de vraisemblance, on aboutit à
( ) ( ) ( ) ( ) 0 Z Y W Z X W Z
1 ' 1 '
= ξ − ξ = µ −
µ ∂
η ∂
ξ
− −

Cette réécriture conduit à deux commentaires :
• L’algorithme des scores peut être décrit en résolvant itérativement ce système
d’équations : A chaque itération, la valeur courante de ξ permet le calcul de la matrice
des poids ( ) ξ W , du vecteur Y et l’obtention d’un nouveau vecteur ξ par la résolution
de ce système linéarisé.
• Cette nouvelle expression des équations de vraisemblance permet une interprétation de
l’algorithme de type linéaire :
A ξ fixé, on considère Y comme un nouveau vecteur de données et ( ) ξ W comme une
matrice de poids fixés. On reconnaît dans ce système les équations des moindres carrés
généralisés associées au modèle
ε + ξ = Z Y , où E( ε ) = 0 et ( ) ( ) ξ = ε W Var .
En effet, puisque la r
ème
composante du vecteur ( ) ξ Y a pour variance
( )
r
2
r
'
r
r
r r r
S var g
d
d
x var ⋅
|
¹
|

\
|
µ =
|
|
¹
|

\
|
µ
η
|
¹
|

\
|
µ − + η
∧ ∧ ∧

et parce que les coûts S
r
sont supposés indépendants, ( ) ξ W correspond bien à la matrice de
variance de Y. Le modèle a deux particularités. D’une part, le vecteur à expliquer Y n’est
pas observé : ses valeurs sont calculées à chaque nouvelle valeur de ξ à partir des S
r
. D’autre
part, la matrice W dépend également de ξ .
A chaque itération, l’estimation
1 t +
ξ est issue de l’application des moindres carrés
généralisés dans le modèle ( )
t t
Z y ε + ξ = ξ , ce qui revient à estimer ξ par vraisemblance en
supposant les S
r
normaux et indépendants.
Annexes

J. Expression de la déviance
Pour aboutir à l’expression de la déviance, il s’agit de remarquer que la log-vraisemblance
peut être exprimée en fonction des espérances des coûts moyens. Comme ( )
r
1
'
r
b µ = θ

, on a

( )
( )
( )
( ) ( ) ( )
( )
( ) S , l
, S c
b b b S
, S c
b S
S , l
r
r
r
1
'
r
1
'
r
r
r
r r r
φ µ =
φ +
φ
µ − µ
= φ +
φ
θ − θ
= φ θ
∑ ∑
− −


|
¹
|

\
|
φ µ

x , l désigne la log vraisemblance maximisée du modèle estimé avec
|
¹
|

\
|
ξ = µ



t
r
1
r
Z g , et ( ) S , S l φ celle atteinte par le modèle saturé avec r S
r r
∀ = µ

.
La différence des deux log-vraisemblances définit la déviance normalisée

( )

(
¸
(

¸

|
¹
|

\
|
θ + |
¹
|

\
|
θ − |
¹
|

\
|
θ − θ ⋅ ×
φ
=
(
¸
(

¸

φ − |
¹
|

\
|
φ µ × − =
φ
|
¹
|

\
|
µ
∧ ∧


r
r r
~
r r
~
r
b b S
2
S , S l S , l 2
, S D
,
où ( )
r
1
'
r
~
S b

= θ et
|
¹
|

\
|
µ = θ



r
1
'
r b . Autrement dit, r
~
θ est tel que
r
r
r
S , S E =
(
¸
(

¸

φ θ

.
On peut exprimer la déviance comme la somme des carrés des résidus de déviance
) D (
r
re :

( )
[ ]
∑ ∑
= =


= =
(
(
¸
(

¸

φ
φ µ
φ − = |
¹
|

\
|
µ
n
1 r
2
) D (
r
n
1 r
r
re d
S , S L
) S , ( L
ln 2 , S D

r r r
) D (
r
d S sgn re |
¹
|

\
|
µ − =

et |
¹
|

\
|
|
¹
|

\
|
θ −
|
¹
|

\
|
θ −
|
¹
|

\
|
θ − θ =
∧ ∧
r r
~
r r
~
r r
b b S 2 d .
Remarque : Dans le cas de la loi normale, la déviance correspond à la somme des carrés
des résidus d’estimation des MCO. En effet, comme
( ) [ ] ( )
2
r
r r 2
2 ln n
2
1
S
2
1
S , l πσ ⋅ ⋅ − µ −
σ
= φ θ

,
on a
( )
∑ ∑
|
¹
|

\
|
µ − = |
¹
|

\
|
µ ⇒ |
¹
|

\
|
µ −
σ
=
(
¸
(

¸

φ − |
¹
|

\
|
φ µ × −
∧ ∧ ∧ ∧
r
2
r r
*
r
2
r r 2
S , S D S
1
S , S l S , l 2
Annexes

K. Evolution des coûts moyens en monnaie constante

Figure 61 – Evolution dans le temps des coûts moyens
Valeurs basses de temps opérationnel
15 000
53 333
91 667
130 000
1979 1987 1995
année de survenance
S10% S20%


Figure 62 – Evolution dans le temps des coûts moyens
Valeurs intermédiaires de temps opérationnel
15 000
53 333
91 667
130 000
1979 1982 1985 1988 1991 1994
année de survenance
S30% S40% S50% S60%


Figure 63 – Evolution dans le temps des coûts moyens
Valeurs élevées de temps opérationnel

0
60 000
120 000
180 000
240 000
1979 1981 1983 1985 1987 1989 1991
année de survenance
S70% S75% S80% S85% S90% S93% S95% S98% S100%

Annexes

L. Rappel élémentaire de théorie du risque
Les résultats rappelés dans cette section concernent les modèles dits de lois composées.
Ces modèles probabilistes composent la loi des coûts de sinistres à partir d’une loi de
comptage du nombre N de sinistres et d’une loi continue pour les coûts associés X.
Ces résultats sont utilisés dans la modélisation des paiements partiels de Wright présentée
dans la partie II. On rappelle que Wright utilise la relation
( ) ( ) ( )
1 ij ij
X E N E X E ⋅ =
où X
ij
désigne la somme des prestations de montants
ij
N 1
X , , X L , payées au titre des N
ij

règlements effectués l’année j
105
.
En d’autres termes, on a


=
=
ij
N
0 v
v ij
X X .
Comme N est un entier, on a
( ) ( ) ( ) ( ) ∞ = + + = ⋅ + = ⋅ =
ij ij ij ij
N P 1 N P 1 0 N P 0 N E L
Au prix de certaines hypothèses
106
, on peut écrire

( ) ( ) ( ) ( ) ( )
( ) ( )
( ) ( )
( ) ( )
1 ij
0 k
1 ij
) 2 (
0 k
k
1
ij
) 1 (
0 k
ij
k
1
ij ij ij N ij
X E N E
X E k k N P
X E k N P
k N X E k N P N X E E X E
ij
⋅ =
⋅ ⋅ = =
⋅ = =
= ⋅ = = =

∑ ∑
∑ ∑

=

= = ν
ν

= = ν
ν

où E(X
l
) = E(X
k
) ∀ k, en faisant l’hypothèse d’unicité de la loi des X
k
.

105
Notons que cette relation est également utilisée dans la modélisation des paiements partiels.
106
(1) : indépendance entre les nombres et les montants de prestations, (2) : les montants de prestations sont indépendants et i.i.d.
Annexes

M. Modélisation des dates de règlements futurs
La méthode de Wright (1992) présentée dans cette section est utilisée dans le calcul du
Best Estimate et du risque de provision : elle permet d’associer une valeur de temps réel aux
temps opérationnels des règlements futurs.
Le temps opérationnel est modélisé à partir d’une fonction de répartition de type
exponentielle. Autrement dit, on suppose la relation
( )

=
=
⋅ −
⋅ = = τ
t T
0 T
T c
dT e c t F , 0 ≤ τ ≤ 1,
où T désigne la variable aléatoire « temps de règlement », de réalisation t associée au
temps opérationnel τ.
En intégrant par T

= T – t
0
, on a

( )
( ) ( )
0
t t c
0
t c
0
t t c
0
t c
0
t c
0
t t
'
T
0
t
'
T
'
T c
0
t c
0
t t
'
T
0
t
'
T
'
0
t T c
e e 1 e e e
c
e
e c dT e c
− ⋅ −
⋅ −
− ⋅ −
⋅ − ⋅ −
− =
− =
⋅ −
⋅ −
− =
− =
+ ⋅ −
⋅ − = |
¹
|

\
|
− ⋅ =
(
(
¸
(

¸

− ⋅ = ⋅ = τ

,
Comme ( )
0
t c
0 0
e 1 t F
⋅ −
− = τ = , on retrouve l’expression de Wright
( )
( )
0
t t c
0
e 1 1
− ⋅ −
⋅ τ − − = τ .
En inversant cette relation, on obtient

|
¹
|

\
|
τ −
τ −
⋅ − = −
0
0
1
1
ln
c
1
t t .
Annexes

N. Projection des règlements de sinistres

Tableau 34 – Projections des règlements de sinistres


Année de survenance
Année
Calendair
e
1995 1994 1993 1992 1991 1990 1989 1988 1987 1986 1985 1984 1983 1982 1981 1980 1979
1996 188 114 85 54 35 23 19 15 9 5 3 3 1 0 3 0 0
1997 145 88 65 41 27 17 15 11 8 4 2 1 1 0 2 0 0
1998 112 68 50 32 21 14 12 8 5 3 2 2 1 1 2 0 0
1999 86 52 39 25 16 10 9 7 5 2 1 1 0 0 1 0 0
2000 66 40 30 19 13 8 6 5 3 2 1 1 1 0 1 0 0
2001 51 31 22 14 9 6 6 4 2 1 1 1 0 0 1 0 0
2002 39 24 18 12 8 5 4 3 2 1 1 0 0 0 0 0 0
2003 30 18 14 8 5 4 3 2 2 1 0 1 0 0 1 0 0
2004 23 14 10 7 4 3 2 2 1 1 1 0 1 0 0 0 0
2005 18 11 8 5 4 2 2 1 1 0 0 0 0 0 0 0 0
2006 14 8 6 4 2 1 1 1 1 1 0 0 0 0 0 0 0
2007 11 7 5 3 2 2 1 1 0 0 0 1 0 0 0 0 0
2008 8 4 4 2 2 1 1 1 1 0 1 0 0 0 1 0 0
2009 6 4 3 2 1 0 1 0 0 0 0 0 0 0 0 0 0
2010 5 3 2 1 1 1 0 1 0 1 0 0 0 0 0 0 0
2011 4 2 1 1 1 0 1 0 0 0 0 0 0 0 0 0 0
2012 2 2 2 1 0 1 0 0 1 0 0 0 0 0 0 0 0
2013 3 2 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0
2014 1 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0
2015 2 0 1 1 0 0 1 0 0 0 0 0 0 0 0 0 0
2016 1 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0
2017 0 0 1 0 1 0 0 0 0 0 0 0 0 0 0 0 0
2018 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2019 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0
2020 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
Total
818 496 368 234 153 99 84 63 41 22 13 11 5 1 12 0 0

Annexes

O. Caractéristiques du processus d’inflation
Pour obtenir une formule explicite de i
t
, on définit le nouveau processus X
t
, où X
t
= i
t
– η.
En introduisant X
t
dans l’équation initiale définissant i
t
, on voit que X
t
est solution de
l’équation différentielle stochastique dite de Langevin

t t t
dW dt X dX ⋅ σ + ⋅ β − = (X
0
= x
0,
β> 0, σ> 0).
Pour résoudre ce processus, on pose Y
t
= f(t,X
t
) = X
t
e
βt
. En appliquant le lemme d’îto, on a

t
2
2
2
t
dX
X
f
dt
X
f
2
1
t
f
dY ⋅


+ ⋅
(
¸
(

¸

σ


+


=
Comme , 0
X
f
, e
X
f
, e X
t
f
2
2
t t
t
=


=


⋅ ⋅ β =


β β
on en déduit
( )
t
t
t t
t t
t
t
t t
t t
dW e
dW dt X e dt e X
dX e dt e . X dY
⋅ σ ⋅ =
⋅ σ + ⋅ β − ⋅ + ⋅ ⋅ ⋅ β =
⋅ + β ⋅ =
β
β β
β β
.
Comme

+ =
t
0
s 0 t
dY x Y , on a

⋅ ⋅ σ + =
β
t
0
s
s
0 t
dW e x Y , soit


⋅ ⋅ σ ⋅ + ⋅ =
β β − β −
t
0
s
s t t
0 t
dW e e e x X ,
En remplaçant X
t
par i
t
– η, on trouve l’expression intégrale du processus :
( )

β β − β − β −
⋅ σ + − η + ⋅ =
t
0
s
s t t t
0 t
dW e e e 1 e i i .
Et pour u < t, on a

( ) ( )
( )
( )

− β − − β − − β −
⋅ σ + − η + ⋅ =
t
u
s
s t u t u t
u t
dW e e 1 e i i .
Cette dernière solution montre que les valeurs possibles de i
t
sont distribuées selon une loi
normale standard. Ce résultat découle des propriétés du processus de Wiener dit brownien
standard défini par
W
t
= ε × t , avec ε ~ N(0,1) et Cov(W
t
,W
t-1
) = 0, soit W
t
~ N(0,t).
Autrement dit, le processus W
t
est un processus gaussien à accroissements indépendants :
la quantité W
t
- W
s
(0 ≤ s < t) suit une loi gaussienne d’espérance nulle et de variance (t – s).
Annexes

Comme dW
s
est gaussien et d’espérance nulle, i
t
est gaussien ∀ t et d’espérance
( )
( ) ( )
( )
u t u t
u r
e 1 e i t , u
− β − − β −
− ⋅ η + ⋅ = µ .
Ensuite, comme les accroissements dW
s
sont supposés iid et de variance égale à ds, on a

( )
( )
( )
( )
( )
( )
( )
u t 2
2
t
u
s t 2 2
t
u
s
s t 2 2
t
u
s
s t 2
r
e 1
2
ds e
dW V e
dW e V t , u
− ⋅ β −
− ⋅ β −
− ⋅ β −
− ⋅ β −
− ⋅
β
σ
=
⋅ σ =
|
|
¹
|

\
|
⋅ ⋅ σ =
(
¸
(

¸

⋅ σ = σ




La discrétisation de i
t
est alors immédiate. En désignant par δ le pas de discrétisation
retenu, on retrouve l’expression du modèle continu :

( ) ( )
( ) ε ⋅
β

σ + − ⋅ η + ⋅ =
ε ⋅ ∆ + σ + ∆ + µ =
∆ β −
∆ β − ∆ β −
∆ +
2
e 1
e 1 e i
t t , t t t , t i
t 2
t t
t
r r t t

Annexes

P. Equidistribution des résidus gamma de Pearson
Il s’agit ici de montrer l’équidistribution des résidus de Pearson issus du modèle (20) dans
lequel on suppose les coûts moyens S
r
de lois gamma. Rappelons tout d’abord l’expression
générale de la densité d’une variable gamma de loi Γ(α,β) :
( )
( ) α Γ
⋅ β ⋅
=
− α α β − 1 x
X
x e
x f . (1)
Dans le cadre des modèles GLM, la densité des coûts moyens S
r
est de la forme

( )
( )
( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
( )
( ) ( )
( )
φ

φ
φ
φ
θ
φ
θ
φ

φ
φ
φ φ
φ φ φ
Γ
⋅ − ⋅
=
Γ
⋅ ⋅ θ − ⋅ θ
=
|
¹
|

\
|
Γ − − +
φ
θ − + θ
= φ θ
1
1
1
r
1
r
r
r
1
1
r
1
r
S
1
r
1
r r
1
r
r
S
1 r r r
r r
S S exp
S S exp
ln S ln ln
ln S
exp , , S f
(2)
En posant
φ
θ
φ
− = β = α =
r 1
r
et , S X , on retrouve l’équivalence entre les expressions (1) et
(2). Par ailleurs, comme
r
m
1
r
− = θ , on en déduit par analogie que
107

( )
r
m
1 1
r
, S
⋅ φ φ
Γ ≈ .
Comme la fonction génératrice des moments d’une loi Γ(α,β) est M(t) = (1 – t/β)

, on a
( ) ( )
φ

⋅ ⋅ φ − =
1
r
r
S
t m 1 t M
On en déduit l’unicité de la fonction génératrice des moments des résidus de Pearson issus
du modèle (20). En particulier, on remarque que cette fonction ne dépend pas des m
r
:

( )
[ ] ( )
φ
− φ

⋅ φ
φ


⋅ φ φ

⋅ φ


φ ⋅ − ⋅ = ⋅ =
(
¸
(

¸

=
(
(
¸
(

¸

=
1
t
r
m
t
r
S
t
r
S
r
m
t t
2
r
m
r
m
r
S
t
) p (
r
e
t 1 e M e
e E e e E t M


107
En vertu des propriétés d’une loi gamma (ν,λr) on vérifie que ( ) ( )
2
r
2
r r r r r
m S V et m S E ⋅ φ = λ ν = = λ ν = .
Annexes

Q. Calcul du risque ultime : programmation de la
procédure de rééchantillonage
La macro SAS reçoit en input la table des coûts moyens « INC » utilisée dans la
spécification du modèle. La correspondance entre les libellés des variables du programme
SAS et la notation utilisée dans le mémoire est exposée dans le tableau ci-dessous :
Variables explicatives
s
r
z
to
1 , r
z
to
3 , r
z
to
4 , r
z
c
1 , 1 , r
z
c
1 , 2 , r
z
c
2 , 1 , r
z
c
2 , 2 , r
z
c
3 , r
z S
r
Label SAS a1 b1 b2 b3 c1 c2 d1 d2 e1 S
Les dix premières lignes de la table « INC » sont présentées ci-dessous.
N_obs N i j T a1 b1 b2 b3 c1 c2 d1 d2 e1 S
1 29 1 1 1 1 0,151 0,000 0,000 8 0 0 0 1 130534
2 109 1 2 2 1 0,000 0,000 0,000 0 0 7 0 2 94872
3 112 1 3 3 1 0,000 0,000 0,000 0 0 6 0 3 74381
4 182 1 4 4 1 0,000 0,131 0,000 0 0 0 0 4 43125
5 57 1 5 5 1 0,000 0,227 0,000 0 0 0 0 5 49798
6 30 1 6 6 1 0,000 0,278 0,000 0 0 0 0 6 119241
7 25 1 7 7 1 0,000 0,320 0,020 0 0 0 0 7 56186
8 13 1 8 8 1 0,000 0,342 0,042 0 0 0 0 8 132365
9 8 1 9 9 1 0,000 0,356 0,056 0 0 0 0 9 133150
10 4 1 10 10 1 0,000 0,363 0,063 0 0 0 0 10 38841
A chacune des nb_simu itérations, la macro rééchantillonne le triangle des résidus à partir
duquel elle forme un pseudo triangle de coûts moyens. Ensuite, elle ajuste le modèle GLM-
gamma sur le pseudo triangle et récupère les estimations des p paramètres de régression (de
label a1, b1, b2, b3, c1, d1, d2 et e1). Les valeurs de ces paramètres, stockées dans la table de
sortie « Stock_Param » sont ensuite utilisées sous tableur Excel pour simuler les PSAP
conformément à la procédure décrite au chapitre II de la troisième partie.
%macro bootstrap(p=,m=,nb_Simu=);
ods listing;
%let ddl=%eval(&m-&p); ⇒ ddl du coefficient d’ajustement des résidus.

1. Calcul des résidus de Pearson
proc genmod data=inc;
model S= a1 b1-b3 c1 d1-d2 e1 / dist=g link=log noint ;
output out=residus resraw=res_brut reschi=res_P pred=mu;
run;

2. Rééchantillonage des résidus de Pearson
2.1 Génération du triangle des résidus de Pearson ajustés

data T1(keep= a1 b1-b3 c1 d1-d2 e1 mu V_mu N_obs) T2(keep= res_P_aj);
set work.residus;
N_Obs+1-1; ⇒ On attribue un n° aux résidus pour tirage aléatoire
V_mu=(res_brut/res_P)**2; ⇒ On calcule V(µ)=µ × φ
0.5
à partir des résidus
res_P_aj=res_P*%sysevalf(&m /&ddl)**0.5; ⇒ On calcule les résidus de Pearson ajustés
run;
Annexes


2.2 Duplication "nb_Simu" fois des n couples (V(µ µµ µ),µ µµ µ ) du triangle supérieur
⇒ Proc surveyselect : assigne un n° « Replicate » à chaque triangle dupliqué
⇒ désigne par « numrecs » le nombre d’éléments du triangle (soit n)

proc surveyselect data=T1 out=T1 method=srs samprate=1 rep=&nb_Simu;run;
2.3 Rééchantillonage "nb_Simu" fois du triangle des résidus ajustés

data T2;
do replicate=1 to &NB_Simu;
do N_Obs=1 to numrecs;
p=ceil(numrecs*ranuni(394747373)); ⇒ On simule le n° du résidu à tirer par tirage uniforme
set T2 nobs=numrecs point=p; ⇒ On sélectionne le résidu
output;
end;
end;
stop;
run;

2.4 Génération des pseudo coûts moyens

data Pseudo_S(keep = replicate a1 b1-b3 c1 d1-d2 e1 S) ;
merge T1 T2;
by replicate N_Obs;
S=mu+res_P_aj*V_mu**0.5; ⇒ Réplication bootstrap des coûts moyens
run;

2.5 Régression des "nb_Simu" pseudo triangles

%do cpt = 1 %to &NB_Simu;
dm "clear log;clear output";
proc SQL; ⇒ Extraction d'un pseudo triangle
create table work.temp as select *
from work.Pseudo_S where replicate =&cpt;
quit;

2.5.1 Régression sur le cpt
ème
pseudo triangle de coûts moyens
ods output ParameterEstimates=Param;
proc genmod data=temp;
model S= a1 b1 b2 b3 c1 d1 d2 e1 / dist=g link=log noint ;
output out=residus resraw=res_brut reschi=res_P pred=mu;
proc print data=Param; ⇒ Récupération des paramètres de régression
run; quit;

2.5.2 Sortie des paramètres de régression
data Param(keep=estimate); set Param; run;
proc transpose data=param out=param; run;
%if &cpt=1 %then %do; ⇒ Création de la 1
ère
ligne de la table
DATA Stock_Param; SET param ; RUN;
%end;%else %do; ⇒ Ajout des lignes supplémentaires
DATA Stock_Param;
set Stock_Param param;
run;
%end;
%end;
%mend bootstrap;

%bootstrap(p=8,n=143,nb_Simu=10000);
Annexes

R. Calcul du risque de provision : simulations des dates
de règlements futurs
Afin d’être en cohérence avec le modèle de provision, nous continuons de supposer que les
nombres de sinistres restant à régler sont connus et certains. Ensuite, nous choisissons pour
chaque survenance de simuler les dates des règlements futurs à partir d’une loi exponentielle
de fonction de répartition
( ) ( )

=
=
⋅ −
⋅ = = ≤
t T
0 T
T c
i
dT e c t F t T P
i
, i = 1, …, I.
Autrement dit, il s’agit pour chaque survenance i de simuler (N
i
– N
i,0
) réalisations t
ij
d’une
variable exponentielle T dont la loi est de paramètre c
i
, et telles que t
ij
> t
0
. En utilisant la
définition des probabilités conditionnelles, on note que ces variables ont pour f.d.r
( ) ( )
( )
( )
( ) ( )
( )
0
0
0
0
0
t F 1
t F t F
t T P
t T t P
t T t T P t G


=
>
< <
= > < = .
Comme
108
( )
t c
i
e 1 t F
⋅ −
− = , on retrouve immédiatement la propriété d’absence de mémoire
caractéristique de la loi exponentielle avec
( ) ( ) ( )
( )
( )
0
t t c
0 0
t t F e 1 t t T P t T t T P t G
0 i
− = − = − < = > < =
− ⋅ −
. (1)
En d’autres termes, la probabilité d’un sinistre d’être réglé entre t et t+dt sachant qu’il
n’était pas réglé en t
0
est indépendante du temps passé et égale à
( )
( ) ( )
( )
dt c e 1
t F 1
t F dt t F
t T dt t T t P
i
dt c
0
0
i
⋅ ≈ − =

− +
= > + < <
⋅ −

Comme G et sa fonction réciproque G
-1
sont connues, que G est continue et strictement
croissante sur [0;1], nous décidons de simuler les t
ij
par la méthode classique de l’inversion de
la fonction de répartition.
Cette méthode repose sur le fait que si G est continue et strictement croissante sur [0;1], la
variable aléatoire G
-1
(U) a également pour fonction de répartition G
109
. Pour simuler un n-
échantillon d’une loi de fonction de répartition G, il suffit alors de simuler n réalisations d’une
v.a.r. uniforme U sur l’intervalle [0;1] et d’appliquer la fonction G
-1
à chacune de ces valeurs.
Par l’équation (1), on obtient facilement l’expression de la fonction G
-1
:
( ) ( ) ( ) ( ) t G G t G 1 ln
c
1
t t
1
i
0

= − − = .

108
Se reporter à l’annexe M.
109
En désignant par U une variable uniforme sur l’intervalle [0 ;1], on a par définition de U : ( ) [ ] ( ) [ ] ( ) z G z G U P z U G P
1
= < = <

.
Annexes

S. Calcul du risque de provision : programmation de la
régression à un an
A chaque itération de la procédure Bootstrap
110
, la macro SAS réajuste le modèle de
provisionnement à partir du triangle de liquidation vu à un an.

Entrées
La macro SAS prend pour entrées :
-
La table initiale des coûts moyens « INC » utilisée dans la spécification du modèle Best
Estimate et correspondant au triangle de liquidation initial vu en t
0
.
-
La table « Diag » de Bx15 lignes. Elle est constituée de B blocs, composés des coûts
moyens (hors inflation) de l’année simulés pour chaque scénario sous Excel pour les
survenances i = 3 à 17
111
, et des variables explicatives associées. Chacun des B scénarios
est identifié par la variable « n_Simu ».
Les coûts moyens et les variables associées de la diagonale correspondant au 1
er
scénario
sont présentés ci-dessous :
N_Simu i t T_ope a1 b1 b2 b3 c1 c2 d1 d2 e1 S
1 3 18 0,99 1 0 0,39 0,09
0 0 0
0 18 75 626
1 4 18 1,00 1 0 0,40 0,10
0 0 0
0 18 0
1 5 18 1,00 1 0 0,40 0,10
0 0 0
0 18 116 700
1 6 18 0,99 1 0 0,39 0,09
0 0 0
0 18 100 307
1 7 18 0,99 1 0 0,39 0,09
0 0 0
0 18 69 230
1 8 18 0,99 1 0 0,39 0,09
0 0 0
0 18 113 854
1 9 18 0,96 1 0 0,36 0,06
0 0 0
0 18 89 035
1 10 18 0,95 1 0 0,35 0,05
0 0 0
0 18 144 748
1 11 18 0,92 1 0 0,32 0,02
0 0 0
0 18 131 827
1 12 18 0,91 1 0 0,31 0,01
0 0 0
0 18 143 289
1 13 18 0,87 1 0 0,27 0,00
0 0 0
0 18 121 211
1 14 18 0,81 1 0 0,21 0,00
0 0 0
0 18 104 002
1 15 18 0,69 1 0 0,09 0,00
0 0 0
0 18 51 165
1 16 18 0,59 1 0 0,00 0,00
0 0 0
9 18 15 411
1 17 18 0,33 1 0 0,00 0,00
0 0 0
9 18 33 171

Sorties
La 1
ère
ligne de la table de sortie « Stock_Param » est présentée ci-dessous. Elle est
constituée des paramètres de régression estimés. Les valeurs des paramètres sont utilisées
sous Excel pour calculer la provision à un an.
N_Simu a1 b1 b2 b3 C1 d1 d2 e1
1 10,1313 2,4163 3,9809 -8,7095 0,1538 0,1818 -0,1023 0,0366

110
Se reporter à la procédure de calcul du risque à un an décrite au chapitre II de la partie III.
111
Pour les survenances i = 1 et 2, l’ensemble des sinistres sont supposés réglés (d’après les estimations de Taylor).
Annexes


Macro SAS
A chacune des « nb_simu » itérations, l’échantillon ajusté par le modèle GLM-gamma est
constitué du triangle original « INC » et d’une diagonale de coûts moyens de l’année à venir :
%macro bootstrap_1an(nb_Simu=);
ods listing;
%do cpt = 1 %to &NB_Simu; ⇒ Ajustement des « nb_simu » pseudo triangles
dm "clear log;clear output";
proc SQL; ⇒ Sélection d’une diagonale
create table work.temp as select *
from work.Diag where n_Simu =&cpt;
quit;
data T(drop=n_simu); ⇒ Ajout de la diagonale au triangle original
set INC Temp; run;

ods output ParameterEstimates=Param; ⇒ Ajustement du modèle GLM-gamma
proc genmod data=T;
model S= a1 b1 b2 b3 c1 d1 d2 e1 / dist=g link=log noint ;
output out=residus resraw=res_brut reschi=res_P pred=mu;
proc print data=Param; ⇒ Sortie ODS des coefficients de régression
run; quit;

data Temp(keep=estimate t_ope); ⇒ lecture des paramètres de régression
set Param temp; run;

data Param(keep=estimate);
set temp;
if estimate ne . then estimate = estimate;
if estimate = . then estimate=t_ope; run;

proc transpose data=param out=param; run;

%if &cpt=1 %then %do; ⇒ Stockage des paramètres de régression
DATA Stock_Param;
SET param ; run;
%end;%else %do;
DATA Stock_Param;
set Stock_Param param; run;
%end;
%end;

data Stock_Param(keep=a1 b1-b3 c1 d1 d2 e1 phi t3-t17);
set Stock_Param;
rename
COL2=a1 COL3 = b1 COL4 = b2 COL5=b3
COL6=c1 COL7 = d1 COL8=d2 COL9 = e1;
run;
%mend bootstrap_1an;
%bootstrap_1an(nb_Simu=4000);

2

Abstract
Key words : non-life insurance, generalized linear models, operational time, risk provisioning, superimposed inflation. The development of an internal model and the implementation of the ORSA lead more and more insurers to do a stochastic calculus of their reserves. The purpose of this paper is to present a stochastic model of provisioning built into the framework of generalized linear models. One can infer from the model assessing the best estimate of reserves or the required capital under the risk provisioning. In the calculation of reserves, we show from data of Auto Bodily Injury Insurance, the model can be considered an alternative to the methods by factors if the data fail to meet the assumptions that underlie them. In particular, the flexible structure model is used to model some factors causing disturbances in the rates of payments. This includes the volatility of rates of settlements or superimposed inflation, two characteristic phenomena of long branches. In computing the risk provisioning, we favour a simulation approach. We adapt the classical version of the Bootstrap to the model and modify it with a vision on a one-year horizon. The calculation of risk provisioning is done by applying the standard formula of QIS4 for comparison.

3

Remerciements
Je souhaitais ici remercier les personnes qui ont contribué directement ou non à la réalisation de ce mémoire : Un grand merci à Stéphanie, ma femme, pour m’avoir supporté dans cette démarche. Merci à Vincent Dupriez pour sa relecture et ses conseils expérimentés. Merci enfin à tous mes professeurs du CNAM qui ont su par leur enseignement me persuader que l’actuariat est une matière riche et passionnante.

..............1 Aspects méthodologiques ..................................... 11 II... 28 II...... I.............. Le risque de provisionnement de Solvabilité II ............2................................................................................................................................................................ 31 II.................................................................................. 45 Le terme stochastique.... 44 Les tendances élémentaires ................ 15 I........................................... 9 II..................................................................................................................1 L’instabilité de la cadence des règlements.............. etude des données ...................................................... 39 III..................................... 34 II..................................................1 Les données utilisées ................................................................................. 46 ........................................................3 La partition du temps opérationnel ................................................................................................................ Le périmètre de calcul....2 PARTIE II............ 7 PARTIE I..........4 Le lien moyenne .......................................................................... 29 II................................................................................... II......................................................... le Risque de provisionnement ..............4 Sommaire INTRODUCTION. 14 De l’incertitude des PSAP au risque de provisionnement ....14 I..........................................................................................................................................1...................2........................................................................................ L’approche par les coûts moyens ....................1 L’exposition des branches à déroulement long.................. 11 III............. 25 Chapitre I.................. 20 III.....3 De l’inadéquation des méthodes par facteurs ....... 21 III..3........3 La modélisation par les Moindres Carrés Ordinaires ..........................................1 Solvabilité II : La mesure par la VaR.......2 Le cas des dommages corporels en automobile .............................................................. 23 I....... 29 II..... 36 III...............2 La sensibilité de la provision pour sinistres ............................... 33 II.... Les conséquences sur le choix du modèle. L’expression de la provision pour sinistres .......................................................2..........2 L’identification de la variable d’intérêt .......................1 L’indicateur du MSE : une mesure du risque à l’ultime.....1 Les coûts moyens et le temps opérationnel ............................ 18 II................................................................................ 35 III....2.............................. 9 Les principes d’évaluation ........................3................................................................................................2...................................................................................variance ........................... 27 Le cas des données étudiées .................................................................. 31 II...... 14 L’incertitude des PSAP : une analyse par risques ...................... I................................................... Mesures de risques ........ LA SELECTION DU MODELE ................................................... Les fondements du risque ................... 11 II....................................................................................... 12 Chapitre II............................................................................................................................. La discussion sur les données ....................... SOLVABILITE II : PRINCIPES DE CALCUL DU BEST ESTIMATE ET DU RISQUE DE PROVISION........................................................................................................1 I...............................................3 Chapitre II......................................2 La stationnarité des coûts moyens...............................................................3 Les coefficients de passage et le temps opérationnel..................1 La description des données..........1 Les préconisations du Groupe Consultatif .....1 I..........................................................................................................................1......................................................................... 17 II....................... 26 Quelques méthodes alternatives ...................................................................2 L’application de la méthode Chain Ladder ................ 40 III.............. 16 II........1 La définition du risque........................................................................................................ 17 II...2................. 21 III...................................................................................................................................................2 La mesure du risque à un an .. Le best estimate des provisions pour sinistres ................ 26 Limites de l’usage des méthodes par facteurs ...............................................2 Aspects calculatoires ....................................................................... 9 II........................... 15 I................................ 33 II........26 L’exposé du problème............................................................... la modelisation des couts moyens ............................................................................................2............................................................................9 I............................................2 Méthodes approchées...................................................................44 I...2 La liaison entre volume des prestations et nombre de règlements ......................... 32 II. 44 Le modèle de régression................................3..... 29 II.................................................................................... 42 IV.............................2 I......................................2 I...............1 I................................................................................................................................................................................................................................................................ 29 II.......... 8 Chapitre I..........................................................1 L’étude préalable des rapports historiques de développement................................................... 19 III.2 Les préconisations de l’ACAM ....................................................................2 L’estimation du nombre de sinistres survenus restant à déclarer................... 20 III.2................................................................3 Risque à un an contre risque ultime......................... 43 I..................................................... 36 III.............................

.................................................................1........................................................................................... IV.................... 112 ..............................1 GLM contre MCO ................................. 109 III........... 86 II...................................................... 81 Conclusion : la validation du modèle........................................................................................................... 52 II..................... I............ la specification du modele..... 107 III...... 69 III......................................................................... 100 I............ 48 II....................................................................... 58 Le rappel du principe de parcimonie .................................. 54 II............................. Les points de validation ........2 Introduction aux GLM................ II............1 L’exposé du problème ................................... 90 III.................................................................................................................................................................................................2 La surinflation ..................................................................................1 La famille des distributions exponentielles..................................................................................2 L’application numérique ..... La modélisation par les Modèles Linéaires Généralisés ....................1...................... 109 III.................2 L’application numérique ..................................................................3.........................1 La modélisation des prestations........................... La modélisation des paiements partiels........................................................4 La modélisation de l’inflation dans les prestations futures.......................................................................................................... le calcul du best estimate des pSAP ................................................................. 85 Hypothèses .................................................................................................................................................... 59 II........................................................... II........................... 48 II......................... 105 II........................................................ 82 PARTIE III.......................................................................................................................1 Le temps opérationnel ................................... 64 II.........3.........................................................................................2 I....................1 La méthode du Bootstrap.........................3 L’interaction entre le temps opérationnel et la surinflation ............................................... 110 III......... validation du modele par des tests statistiques ................ L’exposé du problème.............................................................1 La modification de la méthode du Bootstrap.......................................................................................................................................3 La validation du modèle par back testing ........2 La sélection des résidus ...............................................1 Le modèle d’inflation .................................................... 88 II......................3 L’implémentation du Bootstrap .......................................... 88 II................2 Le calibrage des paramètres .............. 109 III................. 58 Le modèle de séparation................................................................................................................................................................................. 58 La recherche des tendances du triangle .....................1 Principes................................. Le calcul du risque à un an......58 I..... 96 III................... 92 III...................................................................... La capture des tendances.......................................................... 84 Chapitre I................................................................................................ 76 Le test de robustesse...........................1 Le choix de la distribution des résidus............ 53 II................................................... 99 IV..................................2 Algorithme ..................... 62 II.................................................................................................................... 47 II................2 L’estimation des paramètres ............................................................................... III.............................................................................. 103 Le calcul du risque à l’ultime..................................... L’inflation future ..2...............3 Les hypothèses du modèle GLM ................................ 74 I................................................................................... 62 II...... 85 Les étapes de calcul...2 Chapitre II.............................................................................................................................................................................................................................................................................................................................................................................................. V.................................................................................. 92 III........................ 79 Le test sur la validité de la déviance............................................................ 94 III..................................................................................................................... 104 II.........................................................1...............................................3 L’application numérique ........................................ 71 IV...........................................................................2......................................................2 La fonction de lien.....................1.................................................. 104 II..............................1 I...........103 I.......................................................1 I. 50 II..........................................................................3 L’application numérique .................................................1................... L’évaluation du Best Estimate des PSAP..... 54 II...... 66 III......... 104 II..... 104 II................................. le calcul du risque de provisionnement............................................................... La sélection du modèle final ........................................1 Notations....................2.............76 I......................................................................................................................................4 Les résidus .................................. La projection en monnaie constante des prestations futures ........................................................ 69 III....................................... La modélisation des tendances.................... 76 Les tests sur la spécification du modèle ................. 70 III.....................................3 La déviance ..........................................2 L’approche de Wright............. 47 II..................................................2................................................................................................................................................................................................... LA MISE EN ŒUVRE DES CALCULS ................ 57 Chapitre III........85 Hypothèses et méthode ..........3 Chapitre IV...............1.................5 II...

.. 135 Expression de la déviance .................................................................................................... 123 ANNEXES....................... R..........6 III......................................... D............3 Synthèse des résultats ...... 141 Caractéristiques du processus d’inflation.... 120 III..... 145 Calcul du risque de provision : simulations des dates de règlements futurs ...... Q...................................................... 139 Modélisation des dates de règlements futurs.......... 148 .............................................................................................................................................. 128 Triangle des nombres de sinistres en cours................................................... B...................................................................................... 134 L’algorithme du score ............................................................................................................................... O............. E............2 Le calcul par la formule standard du QIS4 ........................................ C..........................2 L’application numérique ................................... 138 Rappel élémentaire de théorie du risque .... J............ P..... 140 Projection des règlements de sinistres........ 119 III.............................. G...2............................................ 144 Calcul du risque ultime : programmation de la procédure de rééchantillonage ...................................... K........ F...................................................................... 137 Evolution des coûts moyens en monnaie constante ..................... I................................................. 119 III................................................................................................... 126 Triangle des nombres de sinistres réglés......................................................... 142 Equidistribution des résidus gamma de Pearson ........ 126 A.............................................................................................. Triangle des incréments .................................... 131 Triangle des temps opérationnels. 132 Triangle des coûts moyens par sinistre réglé ............................... 130 Triangle des cadences de règlements ............ 121 BIBLIOGRAPHIE ..2.............................. 133 L’algorithme de Newton Raphson ...... N.............. H.................................................... M...............................................................1 Les principes de calcul............................... 147 Calcul du risque de provision : programmation de la régression à un an........................................................ S............................................... 127 Triangle des nombres de sinistres déclarés et restant à déclarer ................................................. L.........................................................................................................................................

Les triangles des prestations et des nombre de sinistres réglés. Le mémoire est structuré en trois parties. il s’agit alors d’évaluer la meilleure estimation des Provisions pour Sinistres. La première partie fournit un rappel des principes de calcul des provisions techniques et de l’exigence de capital au titre des sinistres survenus et restant à payer. se caractérise par de nouvelles exigences quantitatives visant à mieux identifier et mesurer les risques portés par les assureurs. qui place la gestion des risques au cœur du système prudentiel des assurances. La seconde partie présente les caractéristiques du modèle de provisionnement. s’appuyant sur la notion de meilleure estimation. Et dans le calcul modulaire du capital de solvabilité. Ces exigences incluent le calcul des capitaux propres et celui des provisions techniques.7 INTRODUCTION Le 22 Avril 2009. On y met en œuvre le calcul du Best Estimate des provisions pour sinistres ainsi que celle du risque de provisionnement. nécessaires à la mise en œuvre du modèle. spécification. le Parlement européen votait la directive Solvabilité II. développé dans le cadre des Modèles Linéaires Généralisés et intégrable au sein d’un modèle interne. et par extension celui des provisions Best Estimate pour sinistres. Dans ce mémoire. nous utilisons et supposons certain le nombre estimé par Taylor des sinistres survenus et restant à régler. la Commission Européenne laisse la possibilité aux assureurs d’utiliser une formule standard ou de recourir à un modèle interne. La dernière partie constitue l’application numérique du mémoire. Dans le calcul du risque de provisionnement. Cette restriction constitue une des limites de l’approche présentée. Dans le calcul des exigences quantitatives. On peut en déduire la meilleure estimation des provisions pour sinistres ainsi que l’évaluation du risque de provisionnement. cette simplification conduit à ne considérer que l’aléa sur les coûts unitaires des sinistres futurs. il est requis d’évaluer le risque de provisionnement. nous nous focalisons sur ce dernier cas. . ses avantages par rapport aux méthodes par facteurs. …). sont empruntés à Taylor (2000). notamment dans le cas des dernières survenances où le nombre des sinistres futurs reste le plus incertain. qui constitue un des principaux risques de passif en assurance non-vie. Dans ces calculs. introduit par Solvabilité II dans le risque de souscription. calibrage. et détaille sa mise en œuvre (choix du modèle. les nouveaux principes prudentiels distinguent en assurance non vie le cas des sinistres à survenir de celui des sinistres survenus en date de calcul. Ce mémoire présente un modèle de provisionnement en assurance non-vie. La connaissance du nombre de sinistres survenus et restant à régler suffit alors à estimer le montant total des prestations futures. en utilisant les Modèles Linéaires Généralisés (GLM). Cette réforme. Dans le calcul des provisions. L’approche adoptée consiste à modéliser le coût moyen des sinistres à partir de leur ordre de règlement. Dans les calculs.

et en présente deux méthodes approchées. Afin de conforter la validité de notre approche. . Le premier chapitre recense les points que nous jugeons importants de valider pour être conformes aux exigences de Solvabilité II dans le calcul du Best Estimate de la provision pour sinistres. SOLVABILITE II : PRINCIPES DE CALCUL DU BEST ESTIMATE ET DU RISQUE DE PROVISION Cette partie introduit les concepts et principes de calcul liés aux deux variables d’intérêt : le Best Estimate des provisions pour sinistres et le risque de provisionnement. Le deuxième chapitre introduit les concepts liés au risque de provisionnement traité en partie III.Les provisions pour sinistres 8 PARTIE I. nous présentons en parallèle les caractéristiques du modèle de provisionnement détaillés en partie II et III.

E. Le périmètre de calcul L’article 76 de la directive européenne (Parlement Européen. 2009) indique que « la valeur des provisions techniques est égale à la somme de la meilleure estimation et de la marge de risque ». Plus précisément. …). le Best Estimate est la somme des Best Estimate: o de la provision pour primes qui se substitue aux provisions pour primes non acquises et aux provisions pour risques en cours.C. • Dans chaque branche.Les provisions pour sinistres 9 CHAPITRE I. dont certains aspects importants sont rappelés ci-après.II. type de risque. Comme il apparaît difficile de préconiser de façon systématique des méthodes de calcul en fonction de cas identifiés (duration.1 Aspects méthodologiques Au centre des règles de calcul à respecter. Les modalités d’évaluation de la marge de risque ne sont pas traitées dans ce mémoire qui se concentre sur le principe de la meilleure estimation (en anglais. déterminée à partir de la courbe des taux sans risque pertinente ». le concept du Best Estimate organise le passage d’une évaluation prudente des provisions techniques assise sur des hypothèses réglementaires.8) préconisent de dissocier le calcul des provisions pour sinistres de celui des provisions pour primes. En ce sens. o de la provision pour sinistres constituée au titre des sinistres survenus. Best Estimate). les spécifications techniques du QIS4 distinguent les sinistres survenus en date de calcul des sinistres à survenir. LE BEST ESTIMATE DES PROVISIONS POUR SINISTRES I. Le calcul du Best Estimate en non-vie est segmenté selon deux niveaux : • L’article 79 de la directive européenne précise que les provisions techniques doivent être calculées par groupes de risques homogènes. A cet effet. dix huit branches d’activité sont identifiées à l’annexe I de la directive. . compte tenu de la valeur temporelle de l’argent […]. II. véhicules terrestres automoteurs » à laquelle se rattache le portefeuille étudié. l’article 76 définit le Best Estimate comme « la moyenne pondérée par leur probabilité des flux de trésorerie futurs. A ce sujet. à une évaluation économique plus réaliste. Les principes d’évaluation II. le Best Estimate est davantage un ensemble de principes qu’un guide méthodologique. les principes réglementaires incitent plutôt l’assureur à s’inscrire dans une démarche méthodologique. Au lieu d’imposer des méthodes de calcul dans son évaluation. Ce mémoire se focalise donc sur cette dernière partie des provisions techniques. dont la branche « R. notons que les spécifications du QIS4 (TS.

• La volonté de croiser différentes méthodes Les spécifications techniques du QIS4 conseillent d’estimer les PSAP à partir d’au moins « deux méthodes actuarielles considérées comme fiables conduisant à un faisceau convergent d’estimations. de façon prudente. fiable et objective la nature du risque. dans lequel s’inscrit le modèle de provisionnement présenté. nombres et charges de sinistres dossier par dossier. le cadre des Modèles Linéaires Généralisés. Sur ce point. L’objectif d’une telle démarche consiste à contrôler l’absence d’erreur de modèle et de paramètres. ». o Les méthodes d’exposition appliquées aux paiements. En ce sens. Dans ce mémoire. • Une qualité minimale d’ajustement Les spécifications techniques du QIS4 conseillent la mise en œuvre de tests d’ajustements. o L’approche basée sur des loss ratios ultimes fonction de la sinistralité déjà survenue et de la politique tarifaire. Dans le cas de la branche corporelle automobile.10). 2007) conçoit trois types de méthodes : o Les méthodes de cadences appliquées aux paiements. les spécifications techniques du QIS4 préconisent l’utilisation de méthodes avérées dites best practice en citant les méthodes construites à partir du triangle de liquidation (TS. les hypothèses qui sous-tendent leur modèle interne ». le rapport de l’ACAM sur le Best Estimate en non-vie (ACAM. A cet égard. recours. est ensuite retenue. l’article 119 relatif aux normes de qualité statistique précise que « les entreprises d'assurance et de réassurance doivent être en mesure de justifier auprès des autorités de contrôle. nombres et charges de sinistres dossier par dossier. nous nous consacrons à présenter une méthode compatible avec les exigences de Solvabilité II.II. • La justification des méthodes utilisées La directive prévoie que les assureurs soient capables de justifier des méthodes de provisionnement utilisées. recours. . de sorte à rejeter les méthodes conduisant à une qualité d’ajustement insuffisante (TS.II.13). celle qui capture le mieux. les conclusions de l’étude des données présentée au début de la deuxième partie doivent permettre de justifier le recours au modèle présenté. De ces méthodes. permet de procéder tant à des tests d’ajustements globaux qu’à des tests de significativité des variables explicatives. A ce sujet le modèle étudié extrapole les prestations futures à partir du triangle de liquidation des nombres de règlements et du triangle des prestations payées.Les provisions pour sinistres • L’usage de méthodes reconnues 10 Pour les branches de forte incertitude telle la branche étudiée. la plus appropriée.E.E.

il s’agit de séparer les sinistres hors graves des sinistres graves qui peuvent distordre les observations moyennes de coûts.2. Les paramètres utilisés combinent l’expérience de l’entreprise et du marché. . Soit déterministes. Les flux futurs doivent refléter l’expérience future de l’entreprise. 2007) rappelle les orientations à suivre dans le calcul du Best Estimate.2. auquel cas l’évaluation de la charge ultime moyenne après application de cadences et de la courbe des taux. • Méthodes de calcul Le rapport précise que les modèles utilisés peuvent être : • • Soit stochastiques. l’approche suivie permet de modéliser les coûts selon une loi de longue queue de distribution et selon une procédure d’estimation des paramètres cohérente avec cette distribution.Les provisions pour sinistres 11 II.2 Aspects calculatoires Le croisement des principes réglementaires et des préconisations émises par l’ACAM ou le Groupe Consultatif Actuariel Européen1 permet de préciser de façon suffisante les principes de calcul à respecter dans le calcul du Best Estimate en non-vie. le rapport préconise de segmenter l’analyse par tranches de coût des sinistres. Les flux futurs doivent être actualisés à partir de la courbe des taux sans risque. En particulier. 1 Le Groupe Consultatif Actuariel Européen a été créé en 1978 pour représenter l’opinion des actuaires devant les institutions européennes. En dehors des méthodes approchées. impliquant l’estimation de la distribution des flux futurs.2 La meilleure estimation correspond à la moyenne actualisée (et non à la médiane). A ce sujet. le Groupe Consultatif Actuariel Européen (2008) retranscrit l’article 76 de la directive en cinq points : • • • • • II. des réflexions ont été menées au niveau national autour des méthodes approchées du calcul du Best Estimate en non-vie.1 Les préconisations du Groupe Consultatif Dans leur rapport intérimaire sur le Best Estimate en assurance non-vie. L’estimation doit être sans biais et ne pas inclure de marge de prudence. son rapport (ACAM. conduit à la meilleure estimation. • Le retraitement des sinistres exceptionnels Dans le cas de la branche corporelle automobile. dont l’espérance actualisée définit la meilleure estimation des PSAP. II. En France. Les préconisations de l’ACAM A l’initiative du Groupe Consultatif. Cette technique peut éliminer la nécessité de retraiter les sinistres graves. un groupe de travail est constitué sous la présidence de l’ACAM.

Cette première approche permet de projeter les prestations futures en monnaie constante. Le modèle présenté estime l’inflation passée de la branche à partir des historiques retraités de l’inflation. • Le calcul de l’espérance des prestations futures est conduit séparément de celui de leur actualisation. rappelons que l’article 77 de la directive prévoie la prise en compte de ses effets dans le calcul des provisions techniques. le provisionnement en assurance non-vie s’intéresse au déroulement temporel des paiements d’une branche d’assurance. de l’inflation et des recours dans le calcul de la meilleure estimation. Quatre étapes de calcul sont définies : • • • • La projection des triangles de charges et de règlements bruts de recours et de réassurance. III. le groupe de travail estime raisonnable de considérer les approximations suivantes : • Dans la mesure où les prestations sont peu corrélées aux variations de la courbe des taux d’intérêt.Les provisions pour sinistres • Intégration des éléments inflationnistes 12 Le rapport préconise de distinguer les effets de la réassurance. Les sinistres sont rattachés à des années de survenance i = 1. avec prise en compte de l’inflation. L’actualisation des flux futurs au taux sans risque.n ou de souscription et rapportés à des années d’inventaire. Dans cet objectif. puis d’appliquer les conditions d’inflation future aux projections de prestations. La projection des triangles de recours. le rapport de l’ACAM rappelle que la hausse des coûts dans la branche corporelle automobile est très supérieure à l’inflation constatée économiquement. En ce sens. en se dispensant de probabiliser les dates de règlement des sinistres. L’expression de la provision pour sinistres L’information en assurance dommages n’est dans certains cas que provisoire. Dans ce contexte. du fait des dérives jurisprudentielles et conjoncturelles. En ce qui concerne la procédure de calcul. L’inflation générale contenue dans les prestations futures est ensuite estimée à partir d’un modèle ad hoc et appliquée aux projections précédentes. l’utilisation d’une courbe des taux déterministe est suffisante. On se retrouve ainsi en date d’évaluation des provisions pour sinistres dans une situation où l’observation des données ne correspond pas à la situation ultime. On peut également considérer des échéances déterministes. Au sujet de l’inflation. le rapport conseille d’estimer les liquidations de sinistres à partir des historiques retraités de l’inflation passée. L’estimation de l’impact de la réassurance. .…. effectuée à partir d’une courbe des taux déterministe et selon des dates de règlements estimées en conformité avec les hypothèses du modèle. l’objectif du provisionnement consiste à anticiper le développement des charges de sinistres pour les intégrer immédiatement dans le résultat. on se dispense de probabiliser l’évolution des taux dans le temps. • Escompte des flux En ce qui concerne l’escompte des flux. Parallèlement.

k . Ci. du triangle supérieur ont été observées.Les provisions pour sinistres 13 Sans perte de généralités. i+j-1 > n). la charge ultime au titre de l’année i est constituée de la somme des prestations passées (connues) et des prestations futures (aléatoires) : Ci.n Les diagonales du tableau correspondent à des règlements calendaires : l’année n a donné n lieu au paiement ∑i =1 x i. . . En supposant par exemple que les prestations soient réglées en fin d’année. j l’estimation de la prestation payée en fin d’année de développement j et revalorisée de l’inflation. Cn.i+j-1≤n. toutes années de survenance confondues. i .n = n − i +1 j=1 ∑x i.l xn. L’escompte des provisions techniques est un des points majeurs apportés par Solvabilité II qui prévoie que le Best Estimate doit être calculé « compte tenu de la valeur temporelle de l’argent ». j − (n − i + 1)) ) i. on suppose pour simplifier la notation que les sinistres se déroulent sur n années : la charge ultime est donc connue de façon certaine passée ce délai. constitué des règlements restant à effectuer au titre des années 2 à n. Parmi les n2 variables du tableau 1. le Best Estimate de la provision pour sinistres s’écrit R= ∧ n ∧ ∧ ∑R .…. Si comme nous le faisons ici.k) désigne le taux sans risque en 0 d’échéance k années et Xi. Au 31/12/n. on suppose le risque totalement écoulé en n années.n . L’objectif consiste à compléter le triangle inférieur. le Best Estimate de la provision pour sinistres constituée au 31/12/n au titre de la survenance i est égal à la somme des prestations futures actualisées à la courbe des taux sans risque : Ri = ∧ j= n −i + 2 ∑ X ⋅ (1 + i(0.1 xi.n −i +1 . Tableau 1 – le triangle de liquidation j i 1 .j (i. Ces variables supposées indépendantes sont appelées incréments. n 1 J l n Charge ultime C1. j . j = 2. j + j= n −i + 2 ∑X n i.n . les montants xij antérieurs à cette date (i+j ≤ n+1) sont disposés sous la forme d’un triangle de liquidation dont la forme est présentée au tableau 1. les variables (Xi.j).n Xn.1 x1. Lors de la clôture de fin d’année n. i i=2 .j). les (xi.n .j Xk.i+j-1≤n étant leurs réalisations. Ces quantités sont considérées comme des variables aléatoires Xi.n x1. j n ∧ n −i +1− j où i(0. On désigne par xij ou Xij le paiement effectué la jème année de développement au titre des sinistres survenus l’année i.

Tout d’abord. . Classiquement. en supposant que les caractéristiques des prestations futures de sinistres resteront conformes au modèle.1 Les fondements du risque L’incertitude des PSAP : une analyse par risques Quel que soit l’horizon de solvabilité étudié. On peut associer les facteurs d’incertitude à trois risques : le risque de volatilité. les modèles de projection sont ajustés à partir des prestations observées. • Risque de paramètres L’estimation des provisions passe par l’extrapolation des prestations futures à partir des observations passées. De façon générale. au sens où les historiques de prestations disponibles souvent courts contraignent à estimer leurs paramètres à partir d’un faible nombre d’observations. le risque est important dans le calcul des coefficients de passage des dernières années. des changements dans la procédure interne de gestion des sinistres ou dans la nomenclature des produits.Le risque de provisionnement 14 CHAPITRE II. Il est considéré diversifiable dès lors que la loi des grands nombres assure la baisse de la volatilité du montant moyen de sinistres lorsque le nombre de risques assurés identiques et indépendants augmente. • Risque de modèle La capacité du modèle à estimer les prestations futures repose en fait sur le respect de deux hypothèses implicites. LE RISQUE DE PROVISIONNEMENT I. la révision de contrats de réassurance sont autant de causes susceptibles de rendre caduque la cadence des paiements utilisée dans la projection des prestations futures. la source du risque de provisionnement est la même : l’incertitude liée à l’estimation des provisions. le risque d’incertitude et les évènements extrêmes. les branches sont d’autant plus exposées au risque qu’elles sont volatiles en nombre et en montant de prestations. Risque d’incertitude Le risque d’incertitude correspond au risque d’une mauvaise spécification de la modélisation de la sinistralité ou d’une estimation erronée des paramètres. on postule également l’absence de changements fondamentaux ou changements de régime dans la formation des prestations. Dans le cas des méthodes par facteurs. Ces modèles sont exposés à un risque d’échantillon. Par exemple. Risque de volatilité Le risque de volatilité est associé aux fluctuations aléatoires en termes de fréquence ou de valeur d’un évènement. Il n’est donc pas un risque diversifiable. on suppose que le passé est correctement modélisé : les variables explicatives de la formation des prestations sont pertinentes et exhaustives et la structure du modèle bien spécifiée. Ensuite. car il ne peut être réduit par l’augmentation de la taille du portefeuille. basé sur peu de données. des décisions réglementaires ou judiciaires influant sur le niveau moyen des prestations. I. Ces changements de régime sont imputables à de nombreux facteurs.

du délai de règlement. Tout d’abord. 245-321. Il est difficile de leur attribuer un montant de perte probable et par extension de capital requis. les provisions représentent ainsi entre trois à cinq fois les primes acquises.2 I. I. Barnett et Zehnwirth2 fournissent un exemple intéressant d’analyse des résidus définis par la différence entre les prestations payées et celles estimées par le modèle. • • Figure 1 – Processus de règlement des sinistres Dans le cadre du risque de provisionnement.Le risque de provisionnement 15 Ces facteurs d’incertitude peuvent conduire à des changements gradués ou brutaux des paramètres réels du modèle de provisionnement. 2 Barnett G. l’identification et le règlement des sinistres s’inscrivent sur une période longue. la date du paiement peut varier sensiblement selon la gravité et la complexité du dommage du fait : • du délai de déclaration à l’assureur. Si les résidus présentent une hausse soudaine ou suivent une tendance régulière.2. leur occurrence ne peut être prédite à partir de l’extrapolation d’événements plus communs. . En assurance de responsabilité civile. Cette tendance est liée en partie à la part croissante des sinistres à développement long. (2000). ou ceux qui sont déjà survenus mais pas encore liquidés. Evènements extrêmes Ils sont caractérisés par une faible fréquence et un impact important.1 De l’incertitude des PSAP au risque de provisionnement L’exposition des branches à déroulement long Les ratios de provisions techniques ont augmenté au fil du temps sur l’ensemble des risques dommages. « Best Estimate for reserves ». les sinistres particulièrement critiques sont ceux qui ne sont pas encore connus. Zehnwirth B. Proceedings of the Casualty Actuarial Society 87. il y a alors lieu de suspecter l’existence d’un changement de régime. Du fait de leur rareté. Ainsi. dont les provisions sont davantage sujettes à dérive du fait de multiples facteurs. contre 60% à 100% en assurance de biens et entre seulement 10% à 30% en assurance tous risque automobile. en particulier dans les branches responsabilité civile et accidents. soit la durée entre la date de survenance et la date de déclaration du sinistre à l’assureur. entre la date de déclaration et la date de règlement final. de la réouverture de nouveaux sinistres inattendus.

Par exemple aux EtatsUnis. en cas de dommages occasionnés à des passagers. de par l’effet conjugué de la hausse des salaires jusqu’ici bas dans le secteur de la santé et d’une plus grande longévité de la population. on conçoit bien que la branche dommages corporels en automobile soit particulièrement exposée au risque de provisionnement. d’une année sur l’autre.…) peut conduire l’assureur à réviser le montant de ses provisions à la hausse et occasionner des pertes importantes. 2/2008.Le risque de provisionnement 16 Dans le provisionnement des risques longs. sociétales et juridiques exerçant une influence sur les engagements de l’assureur. caractéristiques statistiques. ce sont avant tout l’explosion des coûts de santé publique et les exigences accrues en matière de soins à domicile et en établissement hospitalier. l’information supplémentaire obtenue (tendance. il est également primordial d’anticiper les tendances économiques. ou du conducteur. Dans les économies développées. elle est inopérante à prémunir l’assureur du risque d’insolvabilité sur un horizon court. règlement définitif. le taux d’augmentation des frais de soins de santé pourrait aller jusqu’à 7. De façon générale. la littérature s’est jusqu’ici concentré sur le risque dit ultime d’insuffisance des provisions à couvrir les engagements de l’assureur sur la totalité du développement des sinistres. 3 4 Münchener Rück. les provisions en assurance de responsabilité civile médicale constituées au titre de l’année de survenance 2000 ont été augmentées de 25% en 20064.2. En ce sens. Ainsi. En particulier dans le cas des préjudices corporels graves. les risques de variations ». La croissance des frais médicaux est quant à elle due au progrès constant de la médecine et aux développements de nouvelles thérapies. on conçoit donc bien qu’il est délicat d’anticiper ces facteurs latents socio-économiques qui modélisent le niveau des indemnisations et contraignent l’assureur à contrôler périodiquement la suffisance des provisions constituées. l’assureur est tout d’abord exposé au risque de provision du fait des délais de déclaration et de règlement des sinistres. I. « Provisionnement des sinistres en assurance de dommages : progresser sur un défi stratégique ».3%3 par an jusqu’en 2050. déclarations tardives. Ce risque de court terme constitue le risque de provisionnement tel que le définit Solvabilité II. Ainsi. L’assureur payeur est l’assureur de l’automobiliste fautif.2 Le cas des dommages corporels en automobile L’assurance dommages corporels en automobile couvre par définition les dommages corporels en cas d’accident automobile. . Swiss Re. Sigma n°2/2008. Cette observation rappelle deux caractéristiques majeures de l’activité d’assurance : • La rentabilité d’une activité doit être considérée après l’écoulement total du risque. les réclamations découlant d’un événement dommageable ne sont parfois connues que très longtemps après la survenance du sinistre. Il doit être estimé et conduire à la constitution d’une charge en capital. Compte tenu du rapide inventaire des facteurs de variations amorcé dans la section précédente. Selon les prévisions de l’OCDE. • Si cette vision de long terme est centrale dans le calcul des provisions. « La gestion des cycles. Enterprise Risk Management.

• Une période affectée débutant en fin d’année n+1 jusqu’à l’écoulement du risque. l’assureur n’est pas à l’abri d’une décision de justice le contraignant à réviser les provisions constituées au titre des sinistres en cours. Et dans un monde où les changements vont à un rythme croissant. s’il s’agit d’indemnisations sous forme de rentes. II. 2. sans possibilité d’adaptation ultérieure. » En évaluant le risque en fin d’année n. autres frais entraînés par l’infirmité (notamment les frais de tierce personne dans le cas des grands invalides) et pertes de revenus. De plus. 5 International Association of Insurance Supervisors (Octobre 2008).Le risque de provisionnement 17 Et même dans le cas des sinistres connus. Enfin. au titre de laquelle l’évènement adverse aura conduit à réévaluer la charge de provisions.1 on the structure of regulatory capital es . Dans le cas des dommages corporels graves. Le risque de provisionnement de Solvabilité II II. Lorsqu’une indemnisation en rente est décidée. « Guidance paper No. soit l’année n+1 durant laquelle un évènement adverse survient. Et dans tous les cas. Son calcul utilise la méthode de la Value-atrisk. l’assureur prend en charge essentiellement le risque de longévité. le paiement sous forme d’arrérages l’expose également à un risque de baisse des taux et au renchérissement des provisions constituées qui en découle.1 La définition du risque Reprenons la définition du Capital de Solvabilité défini à l’article 100 de la directive : « Le Capital de Solvabilité Requis correspond au capital économique dont à besoin une entreprise d’assurance ou de réassurance pour limiter la probabilité de ruine à 0. comme les niveaux de prestations restent étroitement liés au droit national de la responsabilité. elle concerne en général les postes de préjudices suivants : frais médicaux. leur écoulement souvent long expose l’assureur à l’évolution de multiples facteurs environnementaux : Tout d’abord. conformément à la formule standard ou dans le contexte d’un modèle interne : toutes les pertes potentielles sur les 12 mois à venir. et à l’inverse d’un paiement en capital immédiat et libératoire. l’application de cette définition au risque de provisionnement conduit à segmenter les risques qui lui sont associés selon deux périodes5 : • Une période de choc. doivent être évaluées […]. y compris celles qui découleraient d’une réévaluation défavorable des actifs et passifs. c'est-àdire à une seule occurrence tous les 200 ans.5%. Ce mode d’indemnisation expose l’assureur à la hausse de ces coûts à plus d’un titre : tout d’abord si le montant à verser est fixé selon une base nominale. les rentes versées ainsi que les frais de soins et de traitement médical doivent être payées pendant la durée de vie de la victime.1. il est possible suite à une détérioration médicalement constatée que la réouverture d’un sinistre clôturé occasionne une augmentation subite des provisions. cet évènement étant entaché d’une probabilité de survenance de 0. les dimensions des tendances de long terme de l’ensemble de ces postes sont facilement sous-estimées.5%. on observe dans la plupart des pays que les indemnisations revendiquées sont de plus en plus souvent versées sous formes de rentes.

n −i + 2 + ∑i =1 R i  = R − X n +1 − R      ∧ ~ ~ (n +1) ~ T = P −  X n +1. sont couverts par les primes associées. 6 .n −i + 2− x i.1 + R n +1  = P − X n +1− R       La marge courante T ~ est constituée par la différence entre les primes P payées l’année n+1 X n +1 ~ et la somme des provisions et prestations payées en n+1 qui leur sont associées. (1) Le risque de primes concerne les sinistres non survenus.2 L’identification de la variable d’intérêt La décomposition par Solvabilité II de la perte à un an en risques de prime6 et de provisionnement est assimilable à l’analyse traditionnelle du résultat par année de survenance. Le résultat qui lui est associé sur l’année n+1 s’écrit ∧ (n) ∧ (n +1)   Ti = R i + I −  x i. dont certains sont déjà provisionnés au travers de la provision pour primes. Le résultat T est égal à la différence entre la provision d’ouverture R(n) et la charge de l’année constituée des prestations Xn+1 payées durant l’année n+1 et de la provision de fermeture R(n+1). Quant au résultat T. Il correspond à la marge technique comptabilisée au titre des survenances antérieures à l’année n+1. En d’autres termes. 7 Il s’agit de réintégrer dans le risque de provisionnement les sinistres survenus en n+1 dont les primes associées ont été payées en n. j . il est également appelé boni mali sur liquidation.n −i + 2 + R i    n ∧ (n ) n ∧ ( n +1)  ∧ (n )  =  Xi. L’analyse par survenance distingue la survenance courante n+1 des survenance antérieures.Le risque de provisionnement 18 II. on peut écrire ∧ (n) ∧ (n +1)   Ti = R i + I −  x i. Plaçons nous désormais au 31/12/n+1. j − ∑ Xi. les risques de prime et de provisionnement correspondent respectivement et à peu de choses près7 à un risque de mali sur liquidation et à un risque de marge courante négative. et dont les autres correspondant à des polices souscrites durant l’année n+1.n −i + 2  + ∑ Xi. n −i + 2 + R i  . en considérant une année de survenance i ≤ n. Plaçons-nous au 31/12/n et négligeons l’effet de l’actualisation des prestations. j   j= n −i +3 j= n − i + 3 .   Comme R i = ∧ (n ) j= n − i + 2 ∑X n ∧ (n ) i. Le résultat ~ technique de l’année n+1 est la somme de la marge courante T et du résultat T de run-off : (n) (n +1) n ∧ n ∧   n  (n) (n +1) T = ∑i =1 R i −  ∑i =1 Xi.

compte tenu de l’information obtenue durant l’année. on a également Ti = = n − i +1 j=1 ∑x + j= n − i + 2 ∑X n  n −i +1 −  ∑ x i. Dans une vision à l’ultime. pour les survenances i ≤ n. L’effet d’un choc survenant l’année n+1 agit directement sur le niveau des prestations Xi. Autrement dit. Ainsi. • Le deuxième terme dit boni – mali sur provisions représente la part de résultat liée à la réévaluation de la provision en fin d’année n+1.3 Risque à un an contre risque ultime En ajoutant le terme ∑ j=1 i. Dans une vision à un an. j    . j dans chacun des deux membres de la partie droite de ∧ (n ) i. il s’agit de mesurer la variabilité de cet estimateur par rapport à sa valeur dans un an. II. on est donc intéressé par la variabilité de l’estimateur de la charge ultime par rapport à sa valeur à l’ultime. et dont seulement une partie viendra affecter le résultat de l’année n+1. l’étude du risque de provisionnement à un an conduit à s’intéresser à la variabilité dans un an de l’estimateur de la charge ultime par rapport à sa valeur présente. . j + R i −  ∑ x i.n+2-i payées l’année même. n −i + 2 +  j=1 j= n − i + 3 ∑X n ∧ ( n +1) i. j l’équation (1). tandis que la période affectée intervient indirectement à travers la réévaluation en fin d’année n+1 de la provision Ri(n+1). n − Ci. j + R i  ∑ j=1  j=1  ∧ ( n +1) = Ci. On note le contraste entre l’approche à un an requise par Solvabilité II et l’approche dite « à l’ultime » associée à la problématique du provisionnement. soit la somme des pertes et profits constatés depuis la date j d’évaluation jusqu’à l’écoulement total du risque. On distingue donc facilement le lien entre le niveau de la variable T et chacune des périodes en risque. n ∧ (n ) Le risque de provisionnement est capturé par la distribution de probabilité de la variable T.Le risque de provisionnement 19 Dans l’équation (1) apparaissent les deux éléments constitutifs du boni mali de liquidation enregistrés l’année n+1 au titre de la survenance i : • Le premier terme dit boni – mali sur prestations comptabilise la part de résultat liée à la différence entre le montant xi. Elle se concentre sur l’étude de la variable Ri(n) – ∑ n= n −i + 2 x ij . j n −i +1 x i. n − i +1 ∧ ( n )  n −i + 2 ∧ ( n +1)  x i. l’approche à l’ultime s’inscrit dans une perspective de long terme. une décision de justice intervenant l’année n+1 peut conduire à une aggravation des sinistres sur l’année courante et à une révision à la fin de l’année des montants de provisions en couverture du risque affecté. Par exemple. en se focalisant sur l’incertitude liée au provisionnement jusqu’au développement total des sinistres. conditionnellement à l’information disponible à la fin de l’année n.n-i+2 de prestations payées sur l’année n+1 et celui provisionné au 31/12/n au titre de l’année n+1. j + x i.

En fin d’année n et n+1.n − C i . C Les estimations associées des charges ultimes s’écrivent C i . Leur application successive aux montants connus Ci. prenons la méthode Chain Ladder.n+1-i permet pour chaque année de survenance i d’estimer la charge ultime Ci. • par l’application des nouveaux coefficients de passage à la nouvelle diagonale des règlements cumulés observés.n. les estimateurs des coefficients de développements sont ∧ ( n) f j ∑ = ∑ n− j i =1 i =1 C i .n par le montant C i .n −i +1 × f n +1−i × L × f n −1 . ∧ (n ) ∧ (n ) ∧ (n) ∧ (n) où les coefficients f j représentent l’accroissement des paiements cumulés observés à la fin de l’année n.n −i +1 ∧ (n) j= n − i +1 ∏f j n −1 ∧ ( n ) ∧ ( n +1) et C i . pour i ≥ 2. sa valeur correspond à la distance moyenne au carré entre la réalisation Ci. La technique consiste depuis la diagonale du triangle de liquidation à estimer à la fin de l’année n la charge ultime Ci.n −i + 2 j= n −i + ∏f n −1 ∧ ( n +1) j . Mesures de risques III. Dans le cas de la méthode Chain Ladder. En désignant par D = {xij i + j ≤ n + 1} l’information disponible en date de calcul.n et sa valeur estimée : 2   ∧ ∧   MSE C i . j +1 i.1 L’indicateur du MSE : une mesure du risque à l’ultime L’erreur quadratique moyenne (« Mean Square Error ») constitue une mesure courante de l’incertitude liée à l’estimation des PSAP jusqu’au développement ultime des sinistres.        . j n − j +1 . pour 2 ≤ i ≤ n. entre les années j et j+1. III. j ∧ ( n +1) n− j et f C j ∑ = ∑ n − j +1 i =1 i =1 C i . l’information obtenue sur l’année n+1 influe donc sur l’estimation de la charge ultime à deux niveaux : • par l’intégration des prestations de l’année n+1 dans le calcul de la charge ultime.n = C i . j +1 i.n  = E  C i . 2 ≤ i ≤ n et ainsi la provision Ri.n = C i .n  D .n = C i .Le risque de provisionnement 20 En guise d’illustration.

n ) D] − C i . 203-228.n . On désigne la perte technique sur l’antériorité comptabilisée l’année n+1 par L = – T.n résulte donc de deux facteurs : • Le premier terme est une mesure de l’erreur liée à la variabilité du processus ou du risque de volatilité (en anglais.n                    ∧ ∧ ∧ ∧ Comme E(Ci.n = R i − R i . Le second terme capture l’erreur liée à l’estimation des facteurs par l’écart au carré entre l’estimateur C i. n et sa cible E(Ci.   III. on a 2 2 ∧ ∧ ∧ ∧     MSE R i  = E  R i − R i  D  = E  C i .n | D) (en anglais. [ ] [ ] [ ] La fonction ρ est une fonctionnelle à définir faisant correspondre au risque S un nombre positif noté ρ(S) et vérifiant les propriétés de cohérence définies dans Artzner.2. 8 9 Par linéarité de E(X) on a V( X ) = E {X − c − E(X − c )}2 = E {X − c}2 − 2 ⋅ {E[X − c]}2 + {E[X − c]}2 = E {X − c}2 − {E[X − c]}2 . ∧ • En remarquant que C i .n − C i . En munissant L d’une distribution de probabilité (risque neutre.n  = Var (C i . « Coherent Measures of Risk ».n D ) +  E[(C i .mesurable.n est une constante connue dès lors que D est connu et Ci. Dans un but de protection des assurés. parameter estimation error).         2 21 [ ] ∧ car C i . Mathematical Finance. Solvabilité II a privilégié la Value-at-Risk (VaR) parmi les mesures de risques.n  D  = MSE C i . des provisions et des revenus financiers ne suffisent pas à honorer les engagements contractés auprès des assurés. process variance).n  .n est D . Delbaen. A cette fin.n − C i .…).n ) = ∧  MSE C i . Solvabilité II impose l’immobilisation d’un montant de capital minimal ρ(L)9. on a par analogie 2 2 ∧ ∧ MSE C i . historique. L’incertitude portant sur l’estimation de Ci.n  est l’estimateur de l’écart type de R. Eber et Heath (1999). assurant le financement de ces engagements dans les cas où les ressources primaires constituées des primes. 9. ρ(L) doit en principe être choisi de telle sorte que l’évènement « L > ρ(L) » soit improbable. pp. .Le risque de provisionnement Comme8 E ( X − c ) = Var(X ) + [E(X ) − c] pour toute constante c.2 La mesure du risque à un an III.n) = C i .1 Solvabilité II : La mesure par la VaR Reprenons la notation du II. SE( C i .

il s’agit de la traduction mathématique du concept de « perte moyenne dans les pires (1 – α)% des cas ». 1− α 10 sauf quand une distribution théorique comme la loi normale est supposée a priori. la TVaR permet de distinguer deux distributions de perte qui ont le même α-quantile mais sont différentes par ailleurs (en particulier n’ont pas les mêmes queues de distribution. ou la même asymétrie). C’est la raison pour laquelle on préfère souvent à la VaR la Tail VaR (TVaR) définie par TVaR α( L ) = 1 1 VaR ξ( L )dξ . la TVaR s’exprime comme une combinaison linéaire de la VaR et du Shortfall.Le risque de provisionnement La VaR définit le α-quantile de L. Si ρ(L) = VaR(L). on a TVaR α( L ) = E[L L > VaR α( L ) ] . 1− α ∫ α 0 ≤ α ≤ 1. Pour des distributions continues. 22 − où FX1 est la fonction quantile de L. 0 ≤ α ≤ 1. ni sa distribution au-delà d’un seuil10. soit l’inverse de sa fonction de répartition. Autrement dit. La TVaR est la moyenne des VaR de niveau de confiance supérieur ou égal à α. elle définit le risque résiduel d’insolvabilité. . Comme + 1 0 ESα( L ) = E[L − VaR α( L ) ] = ∫ VaR ξ( L ) − VaR α( L ) dξ + ( ) = ∫ VaR ξ( L )dξ − VaR α( L ) ⋅(1 − α ) α 1 . Varα(L) = Inf{x | P[L ≤ x] ≥ α }= Qα(L) = FS−1 (α ) . La TVaR peux également s’exprimer en fonction d’une autre mesure de risque. celle d’Expected Shortfall définie par ESα( L ) = E[S − ρ( L )] + Le Shortfall peut s’interpréter comme la part de perte non couverte par l’assureur. on a TVaR α( L ) = VaR α( L ) + 1 + E(L − VaR α( L ) ) . Cet inconvénient peut être considéré comme majeur pour des distributions de pertes caractérisées par des queues épaisses. En ce sens. Un des reproches majeurs fait à la VaR est qu’elle ne précise ni l’importance de la perte. A l’inverse de la VaR.

En ce sens.9 R − 0. A ce sujet. une méthode alternative de provisionnement réduisant de 10% le niveau des provisions conduit au même chargement en capital m= 0 . la méthode reste dépendante de la définition de R(n). La démonstration des auteurs est présentée en annexe. . III. (n ) R ( n +1) mais diminue également de 10% le niveau de ressources R(n) × (1+m) devant assurer la solvabilité à un an dans 99. permet de couvrir la perte du risque « déficitaire ».9 R ( n +1) (n ) −R − X n +1 . l’approche vise à capturer l’augmentation relative à un an des provisions définie par m= R   n  − R    n +1   n     − X n+1 R Alors. la solution est analogue à la pratique actuelle d’inclusion d’une marge de prudence dans la provision.5% des cas. 12 dε est assimilable au coût de rémunération du capital immobilisé. 11 Une mesure de risque est sous-additive si ρ(S1+S2) ≤ ρ(S1)+ρ(S2). (2004) montrent que cette mesure de risque est optimale au sens où elle minimise la fonction12 C( L. Par exemple. Toutefois. la propriété est légitime si en cas d’évènement adverse. nous avons vu que la notion de meilleure estimation correspondait à l’espérance actualisée de la somme des prestations futures.2 Méthodes approchées Une approche historique Une méthode simplifiée de calcul du capital requis est proposée dans l’étude de l’AISAMACME (2007).9X n +1 R = (n ) 0 . La valeur de la marge de prudence est définie à partir des données historiques de la branche. Intuitivement. Dhaene et al. la charge en capital estimée au 31/12/n est définie par C = R (n ) × Q99.Le risque de provisionnement 23 Même si la VaR est décriée à cause de son absence de sous additivité11. d ) = E ( L − d ) + dε . + [ ] tout en conduisant au plus petit niveau de capital d.5% (m ) Cette approche rétrospective fournit une indication sur la volatilité historique des provisions à un an. cet exemple met en avant la nécessité de définir le Best Estimate dans la distribution du risque. Elle consiste à calculer la charge de capital par application d’un chargement de solvabilité à la meilleure estimation de la provision d’ouverture.Si > 0. En ce sens.2.9 R (n ) − 0 . Plus précisément. le capital résiduel du risque i « excédentaire » tel que ρ(Si) .

995) ( ) [ ] où les paramètres E(β) et σ(β) peuvent être estimés à partir de données historiques.5% des cas. (2008) proposent une solution plus adaptée : En occultant l’effet de l’actualisation. soit Q99. le risque de provision considère les cas où β est strictement positif.5% β ⋅ R (n ) = R (n ) E (β ) + σ (β ) ⋅ φ −1 (0.Le risque de provisionnement 24 Une approche par les quantiles En prolongement de l’approche de l’AISAM-ACME. on obtient ( ) C = Q99. Cette quantité peut s’écrire en fonction de la provision certaine R(n) d’ouverture.    n Pour décrire le risque de provisionnement. Ainsi. il s’agit de trouver un estimateur de la volatilité du facteur d’accroissement β. la quantité inconnue R(n+1)+Xn+1 est le montant de ressources nécessaire durant l’année n+1. Dans le cadre de Solvabilité II. avec n     n     R +R × R  n +1     + X n +1 − R  R n      n    = R n    n n + R   × β = R   × 1 + β        Le paramètre β désigne la révision du risque effectuée durant l’année n+1. Dhaene et al.5% β ⋅ R (n ) = R (n ) ⋅ Q99. le capital requis doit permettre de couvrir la perte technique liée au risque de mali sur liquidation dans 99. soit R    n +1   + X n +1 > R   . .5% (β ) Si l’on suppose β gaussien par simplification.

Les réponses à certaines questions posées lors de la définition d’un modèle s’avèrent cruciales dans le cas des branches longues : comment modéliser la dérive inflationniste .Etude des données 25 PARTIE II. Ensuite. dans le cadre de la modélisation des paiements partiels. Tout en introduisant les outils propres aux GLM. Nous choisissons d’étudier la branche des dommages corporels automobile caractérisée par un développement long. comment projeter les prestations au-delà de l’horizon observé dans le cas de risques partiellement écoulés. . la méthode propose une modélisation alternative à la méthode par facteurs. Enfin. La troisième partie spécifie la structure du modèle tandis que la quatrième procède aux tests usuels de validation. comment tenir compte d’une éventuelle dérive temporelle de la cadence des prestations ? Inspirée de Wright (1992) et Taylor (2004). tels les phénomènes d’inflation et de surinflation. La première partie étudie les données et justifie du recours au modèle de provisionnement utilisé. Elle suppose de disposer par survenance et année de développement des prestations de sinistres. Le cheminement au modèle final procède en quatre temps. le modèle utilisé intègre implicitement la modélisation des facteurs de queue. la seconde partie définit les caractéristiques fondamentales du modèle. LA SELECTION DU MODELE L’aboutissement de cette partie est l’identification du modèle utilisé dans le calcul du Best Estimate et du risque de provisionnement. Tout d’abord. dans le cas courant pour les branches longues où la cadence des prestations est instable. L’approche est de type coût moyen. des nombres de sinistres réglés et des estimations des nombres de règlements à l’ultime13. sa structure souple facilite l’inclusion de facteurs influents dans la dérive temporelle des prestations de sinistres. la méthode présentée dans cette partie propose des axes de réponse à ces questions. 13 Et éventuellement les nombres de sinistres en cours.

Remarquons que cette proportion est indépendante des années de survenance. on a E(Ci. la pertinence de ce choix de modélisation suppose que les données observées suivent des évolutions relativement régulières.1 L’exposé du problème Limites de l’usage des méthodes par facteurs Pour calculer la provision pour sinistres. Hors. où c = ln ∑ j=1 e  .n )] = c + αi . La plupart de ces techniques passent par la recherche de facteurs de développement mesurant les taux de progression de la charge entre deux âges successifs.n ) βj E(Xij ) on a E(Xij ) = E(Ci. En reprenant la notation de la section précédente. Citons par exemple le modèle GLM Poisson surdispersé14 supposant les incréments indépendants et distribués selon une loi poisson. Cette dernière quantité représente la proportion moyenne des paiements attendus au cours de l’année de développement j.Etude des données 26 CHAPITRE I. ( ) Le lien exponentiel permet une interprétation simple des coefficients αi et βj.n ) ∑ j=1 e n βj . 14 On rappelle que ce modèle conduit aux mêmes résultats que ceux issus de la méthode déterministe Chain Ladder. e n βj ∑ j=1 e ∀ i. de moyenne et de variance E(Xij ) = µij = e αi +β j et Var X ij = φµ ij . n α n βj soit βj n ln[E(Ci. . Par ailleurs.n ) = ∑ j=1 µij = e i ⋅ ∑ j=1 e . la projection des incréments futurs repose sur l’application à chaque survenance d’une unique cadence de développement. De ce fait. les méthodes par facteurs doivent donc être utilisées avec précaution. ETUDE DES DONNEES I. notamment dans le cas des branches longues dont la durée d’écoulement rend plus improbable l’hypothèse de stabilité des cadences de prestations. comme e j= β e α i +β j e αi = E(Ci. nous disposons de différentes techniques qui se basent sur l’analyse du triangle de liquidation.     Cette égalité donne une interprétation du paramètre αi en termes de charge ultime espérée de sinistres. I. En d’autres termes.

T.2 Quelques méthodes alternatives Avec le temps. on peut retenir des facteurs calculés : o A partir d’une moyenne pondérée. A ce sujet. Se pose alors la question de l’horizon à retenir. Dans tous les cas. il est impératif d’en tenir compte dans le calcul des facteurs de développement. 15 Dans son article « Measuring the variability of Chain Ladder Reserve Estimates» de 1993. elles ne permettent pas de distinguer des évolutions dans le temps de la cadence des paiements. La solution choisie doit alors être d’autant plus justifiée qu’elle garde dans tous les cas une part de subjectivité. que les facteurs soient peu ou fortement volatiles. en attribuant un poids plus important aux facteurs des survenances les plus récentes. les diverses solutions possibles basées sur les facteurs peuvent selon leur dispersion diverger sensiblement. Bootstrap). L’utilisation de ces modèles est souvent conditionnée par l’hypothèse sous jacente d’indépendance des facteurs de développement15. Cette dernière faisant référence à une disparité plus heurtée. Ce postulat exclut en particulier les phénomènes de compensation des règlements de sinistres d’un délai au suivant pour une même année de survenance. o A partir d’une moyenne portant sur les derniers facteurs. • Tendances des facteurs Les méthodes par facteurs calculent des coefficients de développement de façon globale. Différents modèles stochastiques permettent de définir un intervalle de confiance dans l’estimation de la provision (Munich Chain Ladder. Selon les tendances observées. Une solution consiste à utiliser des techniques qui passent par le calcul de facteurs par année de survenance. le groupe de travail dissocie la dispersion naturelle de la volatilité des facteurs de développement. dans des cas où l’application d’une cadence unique n’est pas souhaitable. Si on observe des tendances. Mack propose un test de contrôle de l’absence de corrélation entre les facteurs. est fréquemment observée dans le cas des branches longues pour lesquelles une faible proportion de la charge ultime est connue lors des premières années de développement. De ce fait. de nombreux facteurs peuvent en effet venir influer sur le rythme de paiement des prestations. il est normal d’observer des fluctuations dans les trajectoires de prestations par survenance. l’application d’une cadence unique à l’ensemble des survenances demeure une solution moyenne. • Dispersion des facteurs Si le développement des sinistres suit une loi générale. le rapport de l’ACAM (2007) rappelle quelques méthodes alternatives à la méthode des facteurs. .Etude des données 27 I. • Volatilité des facteurs Dans son rapport. Alors.

Etude des données 28 A ce sujet. loss ratio. Pour la première. Dans ce cas. …). à travers les nombres de règlements dont les cadences sont par ailleurs instables. les caractéristiques de cette branche nous situent au carrefour des différentes limites des méthodes par facteurs qui viennent d’être évoquées. La seule information connue concerne la branche du portefeuille. …) qu’externes (évolution jurisprudentielle. T. économique ou sociale. de sorte à ne pas utiliser des facteurs erronés dans le calcul des provisions. les trajectoires de développement des sinistres peuvent également être perturbées par des éléments de rupture. • Eléments de rupture Indépendamment de leur volatilité naturelle. leur utilisation reste délicate. Nous ne disposons d’aucune statistique relative au portefeuille étudié (benchmark. construites par exemple sur des historiques de rapports de sinistres à primes.2. soit celle des dommages corporels en automobile. des dates de cut-off ou de la procédure de sélection des risques. il est primordial de retraiter les données de ces éventuels phénomènes. En fait. Ces ruptures interviennent souvent lors d’un même exercice en touchant l’ensemble des années de survenance16. On y montre notamment : o que les facteurs de développement sont volatiles et sujets à tendances. le rapport de l’ACAM préconise deux types d’approches : o La méthode Bornhuetter-Fergusson combine l’approche traditionnelle des facteurs avec une estimation « a priori » de la charge ultime. Mack propose également un test de contrôle vérifiant qu’il n’existe pas de rupture d’ensemble des facteurs sur une année d’exercice. Quant à la seconde.3 Le cas des données étudiées Les données que nous étudions sont issues de Taylor (2000). o Que le volume des paiements est dépendant des procédures de gestion. la principale difficulté réside dans la justification de l’estimation « a priori » de la charge ultime. elle reste conditionnée à la stabilité des loss ratio d’une survenance à l’autre. 16 Dans son article « Measuring the variability of Chain Ladder Reserve Estimates». l’analyse à venir invalide l’usage des méthodes par facteurs pour différentes causes. En revanche. o Les méthodes basées sur des facteurs de développement en valeur absolue. cette approche de type crédibilité accorde une pondération plus importante à l’observation des facteurs. Ces deux méthodes permettent de limiter l’instabilité des projections liée à la sensibilité de l’approche par facteurs des premières années. I.2). Dans le cas des données étudiées. Dans tous les cas. Au fil des années de développement. une illustration de l’effet de l’application d’une cadence unique en présence de volatilité des facteurs est donnée à partir du portefeuille étudié (voir II. Elles peuvent être causées tant par des sources internes (changement des règles de gestion. …) à l’entreprise. .

les estimations des IBNR peuvent être volatiles. du fait des réévaluations des estimations de sinistres. Cette réalité complique à double titre la lecture de la cadence des règlements. et nous cherchons à extrapoler la série des Di. • Les nombres Nij de sinistres survenus au titre de la survenance i et réglés avec j années de retard sont présentés en annexe B. Son utilisation requiert la connaissance des données suivantes : • Les sinistres payés retraités de l’inflation sont présentés en annexe A. le triangle inclut leurs estimations en lieu et place des règlements à venir. • Les nombres Ni des sinistres survenus et à survenir au titre de la survenance i sont présentés en annexe C. il n’existe pas de consensus clair sur la nature des données à prendre en compte dans l’estimation de la charge ultime : étudie t’on les sinistres payées ou survenus ?. sans prise en compte de jugement humain. …. ∞.1. Il s’agit du triangle des prestations réglées. Ensuite. Les estimations des nombres de sinistres survenus restant à déclarer dits tardifs correspondent aux estimations de Taylor (2000). nous disposons du triangle des Dij. Les deux issues présentent des avantages et des inconvénients : • Si on inclut seulement les sinistres payés.Etude des données 29 II. Tout d’abord. La discussion sur les données II. la connaissance des IBNR n’est pas exploitée. Cependant. • A l’inverse. les incréments Xij représentent les sinistres survenus l’année i et payés avec j années de retard. n – i+1. les sinistres sont considérés réglés en date d’estimation et non de règlement. les montants réglés peuvent différer sensiblement des montants estimés. Dans le second cas.1. les incréments Xij représentent les sinistres survenus l’année i et déclarés la jème année de développement : dans ce dernier cas où les sinistres n’ont pas été entièrement réglés. et le triangle n’apporte aucune information sur les paiements futurs.2 L’estimation du nombre de sinistres survenus restant à déclarer Considérons la survenance i et notons Dij le nombre de sinistres déclarés durant l’année de développement j. II. . ….1 La description des données II. si elles sont soumises à différentes influences économiques et politiques plus ou moins objectives.1 Les données utilisées Si les techniques de provisionnement passent invariablement par l’analyse du triangle de liquidation. Classiquement.j pour j = n – i+2. Le modèle utilisé définit le coût moyen d’un sinistre en fonction de l’ordre d’occurrence de leur règlement. Les prestations sont exprimées en dollars du 31/12/1995. Dans le premier cas. les données du triangle reflètent la situation réelle. pour j = 1.

j=1.0011 ×   j=10  j=10 ∞ ∑ ∞ ∑ 0. où la sommation en i se fait pour l’ensemble des valeurs disponibles18.59  ∧  = = ×  ν 9 − 1 0.L.   j=10 ∧ ∞ ∧ ∞ Au final. j+1 i.41   3 ∧ D’où ∏ ∧ ∧  ν j ≅ 1 + 0. Sur cet exemple. j 17 18 Pour plus d’explications. remarquons que le modèle permet l’extrapolation des tardifs pour les délais importants.Taylor estime les coefficients de passage selon des historiques différents détaillés en annexe C (tableau 29 bis). 7.41 0.n −i +1 j= n +1− i ∏ν . Plus précisément.0011 × 0. j = 1.∞ = Ai. Pour finir.59 0. on définit comme estimateur de νj la quantité νj = ∧ ∑A ∑A i i i. .59 ν 10 − 1 0. l’extrapolation des tardifs est établie en deux temps17 : • Il estime les facteurs de passage νj à partir de la méthode Chain Ladder pour j ≤ 7.m Taylor (2000) extrapole le nombre des sinistres tardifs à partir de la série historique des Dij. • Pour les coefficients suivants. on a ∧ ∏ j=10 ∞ ν j ≅1+ ∧ ∑ ν − 1   j j=10 ∞ ∧  Comme ∑ j− 7 3 ∧  0. j . Autrement dit.41 0. Par exemple pour j ≥ 10. il ajuste une courbe aux quantités ν j − 1.7 . …. comme ν j − 1 → 0.59 j= 0 ∞ j = 0. on obtient Ai.59 j−7 ∧ ∧ La reconstitution des coefficients de passage est exposée en annexe T.59 ν j − 1 = 0.0011 × 0.0011 × 0. Le modèle ajusté est le suivant : ν j − 1 = 0.41 ×  ν 9 − 1  . se reporter à la page 17 de Taylor (2000). On y trouvera plusieurs techniques d’extrapolation des sinistres tardifs. qu’il utilise pour les délais j > 7.Etude des données 30 On définit le nombre cumulé des sinistres déclarés au titre de i par A ij = ∑D j=1 n i.59 = 0.

2.4 1. notamment dans le cas des délais 1 et 3.2 1. l’hétérogénéité des cadences de paiements peut conduire à une instabilité forte dans le calcul des provisions. j = 5 à 8 1. Figure 3 –Rapports moyens de développement fj. calculés à partir d’un horizon allant du dernier exercice comptable 1995 (en bleu) à l’ensemble des seize années disponibles (en rose). la modélisation d’une cadence unique de paiements basée sur les années de développement apparaît compromise à double titre du fait : • De la tendance générale à la hausse des rapports historiques19. Figure 2 –Rapports moyens de développement fj.1 L’étude préalable des rapports historiques de développement Les coefficients fj calculés par Chain Ladder et les facteurs de développement cumulés associés f j' sont présentés en bas de triangle de l’annexe A. . l’application de facteurs multiplicatifs de niveau élevé peut entraîner des effets fortement amplifiés sur l'évaluation de la charge totale et en conséquence conduire à des niveaux de provisions très volatiles. j = 1 à 4 3 2 1 f1 1 an 2 ans f2 3 ans f3 4 ans f4 16 ans A priori. Elles témoignent clairement de l’instabilité de la cadence des prestations dans le temps. • De la volatilité des coefficients.2 L’application de la méthode Chain Ladder II.0 f5 1 an 2 ans f6 3 ans f7 4 ans f8 16 ans Dans le cas des branches longues.Etude des données 31 II. Autrement dit. 19 Les valeurs des rapports historiques sont présentées en annexe A pour les neufs derniers exercices. Les figures 2 et 3 présentent les facteurs f1 à f8.

Etude des données

32

Par exemple, l’application de la méthode Chain Ladder ajustée à partir des seize années d’historique suppose que la part de sinistres réglés en fin de 1ère année est en moyenne de

1 1 = = 5,45% . ' f1 18,355
Autrement dit, pour 0.0545 euro réglé en fin de 1ère année de développement, la méthode estime le montant de la charge ultime à 1 euro. A ce sujet, rappelons que l’application d’une cadence moyenne de paiements à l’ensemble des survenances suppose implicitement l’homogénéité du développement de leurs prestations. Par exemple dans le cas de la survenance 1979 où la charge ultime est a priori connue, l’étude à postériori de la cadence de ses prestations conclut que 9% des prestations étaient payées en fin de 1ère année. L’application du coefficient moyen Chain Ladder à cette survenance aurait aboutit en fin de 1ère année à une surestimation de sa charge ultime de (0,09-0,0545) × 18,355 = 64,9%.

II.2.2 La sensibilité de la provision pour sinistres
La section précédente donne une mesure de la variabilité de l’estimation des PSAP du fait de la volatilité des facteurs. Dans le cas des données étudiées, le recours à une méthode par facteurs n’est de toute façon pas pertinent du fait des tendances décelées dans les facteurs. Le tableau 2 présente les montants de PSAP obtenus en fonction du nombre d’exercices retenus dans le calcul des coefficients Chain Ladder, et le rapport (colonne %) de chaque provision par rapport à la PSAP calculée à partir des seize exercices observés.

Tableau 2 – PSAP - fin d’année 1995
Exercices retenus
1995 1990 à 1995 1985 à 1995 1979 à 1995

(%)
1,768 1,474 1,055 1,000

PSAP
382 249 638 318 723 185 228 155 210 216 250 173

Par exemple, l’utilisation des facteurs observés durant l’exercice 1995 conduit à une provision supérieure de 76,8% à celle estimée en recourant à l’ensemble des exercices disponibles. De façon plus générale, on observe sans surprise du fait de la hausse des premiers facteurs de développement avec le temps que l’intégration progressive des exercices passés dans le calcul des coefficients de passage conduit à une baisse tendancielle du niveau des provisions. Dans ces conditions, le recours à un unique profil de développement dans le calcul des PSAP apparaît difficilement justifiable, d’autant que s’il est possible de tenir compte de la tendance haussière des facteurs en raccourcissant l’historique intervenant dans le calcul des coefficients fj, il n’existe aucune méthode adéquate permettant d’en définir la profondeur.

Etude des données

33

II.3 De l’inadéquation des méthodes par facteurs II.3.1 L’instabilité de la cadence des règlements
Il est courant que l’instabilité des facteurs de développement soit liée à celle du rythme de règlement des sinistres. C’est pour cela que Berquist et Sherman (1977) suggèrent de fixer le montant des IBNR à partir de la durée de règlement des sinistres restant à courir. Dans cette même démarche, Reid (1978) introduit la notion de temps opérationnel en associant un indicateur de temps moyen

τij =

N i1 + L + 1 ⋅ N i, j 2 , avec tij ∈ [0 , 1], Ni

à chaque cellule (i,j) du triangle, définissant la proportion de tous les sinistres clôturés au titre de la survenance i au milieu de l’année de développement j. Les sinistres clôturés en (i,j) sont définis par l’égalité N ij = O i , j−1 + D ij − O i , j où Oij désigne le nombre de sinistres restant ouverts à la fin de la période associée à la cellule (i,j) et Dij le nombre de sinistres déclarés durant cette même période. La notion de temps opérationnel fait référence à la vitesse de règlement d’une cohorte de sinistres, correspondant dans notre cas aux sinistres survenus durant une même année de survenance. L’activité de la cohorte débute au temps opérationnel τ = 0 et se termine lorsque le dernier sinistre de la cohorte est réglé en τ = 1. La figure 4 reprend trois trajectoires de temps opérationnel du triangle présenté en annexe F.

Figure 4 – Trajectoires de temps opérationnel de trois années de survenances
100%

75% 60% 50%

74%

48% 38%

25%

1981
0% 1 2 3 4 5 6 7 8 9 10 11

1985

1992

12

13

14

15

année de développement

Les années de survenance présentées sont sélectionnées pour illustrer la forte volatilité des trajectoires de règlement, notamment dans le cas des premières années de développement. Par exemple, on observe que 74% des sinistres de la survenance 1992 ont été clôturés en fin de 4ème année de développement, contre seulement 48% pour la survenance 1981.

Etude des données

34

II.3.2 La liaison entre volume des prestations et nombre de règlements
La figure 5 issue de Taylor (2000) superpose le nombre de sinistres réglés et le volume de prestations par année comptable. On observe le lien étroit entre ces deux variables.

Figure 5 –Volume des prestations (M$) et règlements de sinistres

1 300 65

Prestations (M$)

55 800

45

35

300

1979

1981

1983

1985

1987

1989

1991

1993

1995

Prestations

Nombre de règlements

L’observation de la figure 5 nous rappelle cependant que la justesse de cette relation peut dans la pratique être contrariée, notamment du fait de deux phénomènes : • Certains règlements de sinistres ne conduisent pas forcément à prestations : Ainsi, l’activité de règlement des sinistres peut tout simplement être artificielle, au sens où elle répond davantage à une motivation administrative. Par exemple, on peut considérer une année d’inventaire durant laquelle l’assureur décide de clôturer le maximum de sinistres laissés ouverts sans utilité. Sur la figure 7, on remarque que le pic de règlement de l’année comptable 1985 ne s’accompagne pas d’une hausse du volume des prestations. On observe également que cette année est adjacente à un minima local de la courbe des sinistres réglés en 1984. On peut imaginer qu’une partie des sinistres réglés en 1985 correspond à un rattrapage des sinistres sans suite laissés en suspens en 1984. • Un certain nombre de prestations ne s’accompagnent pas d’un règlement : En effet, un sinistre peut déclencher de nombreux versements. On parle de paiements partiels. Par exemple, ce phénomène peut être accentué dans le cas d’indemnisations sous la forme d’arrérages : le sinistre est considéré réglé avec le paiement du dernier arrérage.

Règlements

3 Les coefficients de passage et le temps opérationnel Si le volume des prestations dépend du nombre de sinistres réglés. Figure 6 – Temps opérationnel τ2 et rapport de développement f1 5.3 45% 3.0 1979 15% 1981 1983 1985 1987 1989 1991 1993 année de survenance Figure 7 – Temps opérationnel τ4 et rapport de développement f3 2. temps opérationnel T4 à la fin de l'année 4 coefficient de passage F3 de l'année 3 à l'année 4 temps opérationnel T2 à la fin de l'année 1 F1 T2 .3.85 T4 78% 1.60 62% 1.Etude des données 35 II. On observe par exemple que la hausse sensible du taux de règlement τ2 pour les survenances postérieures à 1991 ne s’accompagne pas d’une augmentation du coefficient de développement associé.35 1979 45% 1981 1983 1985 1987 1989 1991 année de survenance Dans les deux cas.5 60% coefficient de passage F1 de l'année 1 à l'année 2 4. la croissance des facteurs de développement apparaît coïncider avec celle du temps opérationnel. La figure 6 superpose les évolutions dans le temps des rapports historiques de première année f1 et du temps opérationnel τ2 de fin de deuxième année de développement.10 95% F3 1. même si les coefficients de corrélation entre les séries fj et τj+1 sont loin d’être parfaits. La figure 8 effectue la même comparaison pour le facteur de troisième année et le temps opérationnel de fin de quatrième année de développement. on peut s’attendre à observer un lien entre l’évolution du temps opérationnel et celle des facteurs de développement.2 30% 2.

sans affecter ni leur ordre de paiement. L’utilisation de la relation (1) suppose implicitement pour un même délai que les coûts moyens par sinistre réglé restent stables d’une année de survenance à une autre. 2000 en τ = 2 et 3000 en τ = 1 . mais selon une répartition dans le temps exposée au tableau 3. . il s’agit de postuler que les variations du rythme de règlement n’ont pour seule conséquence que de compresser ou d’étendre la durée durant laquelle ces sinistres sont payés. 1 Surv. Le modèle le plus simple reconnaissant la dépendance entre ces deux variables suppose la relation E(Xij ) = Nij ⋅ S j . cette hypothèse n’est donc pas réaliste. 2 Prestation par sinistre réglé Surv. pour « Payment Per Claim Finalised ». supposer l’hypothèse d’invariance de l’ordre peut constituer un axe de modélisation plausible. Dans notre cas.0% 66. 3 3 Tableau 3 – Prestation cumulée par sinistre réglé Délai j nombre de sinistres réglés Surv. la quantité Sj est usuellement appelée PPCF.0% 100. réglés dans cet ordre pour chacune des survenances. 2 Surv. Du fait de la répartition différente des règlements de sinistres dans le temps.3% 66. où S j = ∑i∈I Xij (1) ∑i∈I Nij désigne l’estimateur du coût moyen par sinistre réglé20 observé sur le délai j et I un ensemble approprié d’années de survenance.1 Les coûts moyens et le temps opérationnel La section précédente met en avant l’existence d’un lien entre le volume des prestations payées et le nombre de règlements de sinistres. le développement des sinistres est mesuré en temps opérationnel. 2 Prestations Surv. Imaginons sur un exemple simple deux années de survenance engendrant chacune trois sinistres. 1 Surv. L’approche par les coûts moyens III. Autrement dit. 1 Surv.7% 0 100. 2 Temps Opérationnel Surv. La modélisation des incréments à partir de ces coûts conduirait à des problèmes similaires à ceux évoqués dans le cas des facteurs de développement. ni leur niveau de prestation. on observe pour les deux survenances les mêmes coûts par sinistre réglé de 1000 en τ = 1 .Etude des données 36 III. Dans le cas d’instabilité avérée de la cadence des règlements.7% 3000 100. du fait du lien établi entre le volume des prestations et le nombre des règlements de sinistres instables en cadence. 2 1 2 3 1 2 0 2 0 1 1000 5000 0 3000 0 3000 6 1 1 2 1000 2500 0 1500 33. les deux survenances présentent des niveaux de coûts moyens par délai très hétérogènes. Si par contre. de montants 1000.0% 20 Dans la littérature anglaise. 2000 et 3000. 1 fj Surv. 1 Surv.

En effet. En outre. Autrement dit. Nous verrons en fin de partie que la modélisation des paiements partiels développée par Wright fournit dans le cas des données étudiées une explication fortuite à ce phénomène. La construction de la figure 9 requiert de partitionner l’intervalle ]0. en passant à une structure paramétrique du type E( Xiτ ) = Niτ ⋅ Sτ où Sτ = ∑τ ij ∈ ]u τ . En supposant que ces règlements interviennent majoritairement dans les premières années. ce postulat souvent vérifié empiriquement est la principale justification du recours au temps opérationnel. La première est avancée par Taylor (1981) qui rappelle que ce phénomène peut s’expliquer par l’effet de la répartition dans le temps des sinistres réglés sans suite22. vτ]. tel que u τ < τij ≤ v τ . Cette problématique est développée plus en avant. vτ].…. on voit que leur regroupement selon leur temps opérationnel aboutit à une trajectoire plus régulière. les figures 8 et 9 témoignent de l’effet du temps opérationnel sur l’homogénéité des coûts moyens. les « petits » sinistres sont réglés plus rapidement que les « gros ». On associe le coût moyen Sij = X ij N ij de chaque cellule (i. plus homogènes sur la figure 9 que sur la figure 8. τ = 1. La seconde est exposée par Wright (1992) qui montre que cette baisse peut être liée à l’existence de paiements partiels importants. v τ ] (2) Xij Nij désigne le coût moyen des sinistres réglés dans le τème intervalle de temps opérationnel. Le hamac21 de la figure 8 fournit une lecture rapide des propriétés de la distribution des coûts moyens par année de développement présentés en annexe G.1] en sous intervalles ]uτ. avec u1= 0. Par ailleurs. le coût moyen peut donc baisser pour remonter par la suite. où vτ = τ 15 . il est courant de constater un lien de proportionnalité entre le temps opérationnel et le coût des sinistres. l’approche par les coûts moyens reste valide. Ensuite. Le point dans la boîte à moustache représente la moyenne. On trouve dans la littérature deux sources d’explication possibles de la baisse des coûts moyens dans les premières valeurs de temps opérationnel. 21 . L’observation des figures 8 et 9 conduit à deux enseignements. 22 Sinistre dont le règlement n’entraîne pas une indemnisation de l’assureur. ces sinistres sont en effet comptabilisés dans les nombre de règlements intervenant dans le calcul du coût moyen. davantage sujets à de longue procédure. ni sur la distribution des prestations. on observe que l’usage du temps opérationnel fait baisser la variabilité intra classe des coûts moyens.15. v15= 1. Dans le cas des données étudiés. Il s’agit en termes de modélisation de substituer l’indice τ à j. le haut et le bas de la boite respectivement les 75ème et 25ème quantiles et les extrémités des barres supérieures et inférieures les incréments de valeurs extrêmes. on remarque que la trajectoire des coûts moyens de la figure 9 n’est pas conforme à celle monotone croissante plus usuelle. uτ+1= vτ. Tout d’abord.Etude des données 37 Dans ces conditions. La figure 9 est son homologue en temps opérationnel. j) du triangle au τe sous intervalle ]uτ. Sans intervenir ni sur l’ordre.

Supposons par exemple que sous l’impulsion d’une décision managériale. le nombre de règlements effectués dans les premiers intervalles de temps opérationnel augmentera. La distribution des prestations par année de développement restera inchangée. les règlements de sinistres sans suite interviennent plus tôt. et diminuera en conséquence sur les derniers intervalles. En l’occurrence. les coûts moyens baisseront dans les 1ers intervalles par rapport aux coûts moyens historiques. A l’inverse. Dans le cas où les données ne sont pas retraitées de ces sinistres. Figure 8 –Coûts moyens par année de développement Figure 9 –Coûts moyens par unité de temps opérationnel .Etude des données 38 Précisons que l’hypothèse d’invariance de l’ordre reste bien sûr une idéalisation. sa pertinence même si elle est avérée par le passé. peut se voir remise en cause d’une année sur l’autre par de nombreux facteurs.

Les coûts moyens estimés sont présentés aux figures 10 et 11. la pertinence de cette hypothèse peut être vérifiée à partir des données du triangle supérieur. En particulier.049 = 127109 Figure 10 –Evolution des coûts moyens Siτ. cette prestation est supposée indépendante de l’année de survenance.0. On l’estime à 1 15 est S1. τ = 0.Etude des données 39 III. le coût moyen de l’année de survenance 1979 (soit i = 1) en τ = construit à partir des coûts moyens observés S1.6 à 1 240 000 180 000 120 000 60 000 0 1979 1983 1987 1991 année de survenance S60% S67% S73% S80% S87% S93% . Dans le cas étudié.0. 1 = 130534 + 15 1 ( 94872 − 130534 ) × (15 − 0. v15. τ = 130 000 1 15 àτ= 8 15 91 667 53 333 15 000 1979 1983 1987 1991 1995 année de survenance S7% S13% S20% S27% S33% S40% S47% S53% Figure 11 –Evolution des coûts moyens Siτ. on estime des coûts moyens Siτ aux valeurs de temps opérationnels v1.2 La stationnarité des coûts moyens L’usage du modèle (2) suppose implicitement la stabilité de la prestation moyenne par unité de temps opérationnel. …. on s’attend à observer avec le temps des fluctuations aléatoires des coûts moyens Siτ autour de leur espérance Sτ.233. Si les coûts moyens de sinistres sont stationnaires par tranche de temps opérationnel. Par exemple. Pour chaque survenance. Ce calcul est établi par interpolation linéaire à partir des observations de coûts moyens (annexe F) et des valeurs de temps opérationnel associées (annexe G).049 ) 0.049 et S1.233 − 0.

100 des 150 observations de coûts moyens ont une valeur de temps opérationnel supérieure à 70%. Par ailleurs. En ce sens.2% 98. 23 Par exemple.1% 98.7% 95. A ce sujet. Ce phénomène dit de surinflation des coûts est modélisé par la suite.5% 1 15. Cette observation rappelle la forte proportion des observations à temps opérationnel élevé dans le triangle de liquidation23.6% 93.5% 4 60% τ 40% 20% 0% 5 6 7 8 9 10 11 12 13 j On remarque un développement du temps opérationnel en deux périodes. Pour nous aider dans notre choix. l’existence de tendances ne peut a priori être imputée à l’inflation.8% 2. dès lors que l’évolution des coûts dans le temps n’est pas stationnaire. Par ailleurs.9% 99. on observe une tendance générale à la hausse des coûts moyens.3% 100% 70. La segmentation choisie doit permettre de définir des profils de coûts relativement homogènes à partir d’un nombre suffisant d’observations.3% 14 80.9% 99.1% 90. l’hypothèse de stabilité de Sτ est infirmée. avec une inflexion du rythme des règlements en j = 5 après une rapide progression. l’usage du temps opérationnel requiert d’associer à chacun des coûts moyens un intervalle de temps. Figure 12 –Temps opérationnel moyen par année de développement 97. .9% 86.7% 15 80% 56. retraitée par Taylor dans le triangle de liquidation. nous traçons à la figure 12 la courbe du temps opérationnel moyen observé par année de développement. • Pour les valeurs élevés de τ présentées à la figure 11.Etude des données 40 Les figures 10 et 11 révèlent l’existence de tendances dans l’évolution temporelle des coûts moyens par sinistre réglé : • Les coûts moyens en figure 10 suivent la même évolution constituée d’une tendance décroissante depuis 1979 jusqu’en 1987 suivie d’une autre tendance croissante.9% 2 3 37. le triangle des coûts moyens figurant en annexe G a déjà été présenté dans ce chapitre.3 La partition du temps opérationnel L’approche par les coûts moyens nécessite de transformer les données originales Xij et Nij en un triangle Sij = Xij/Nij de prestations moyennes de sinistres. III.

1 La figure 13 présente le profil des coûts moyens regroupés selon la nouvelle échelle de temps opérationnel.925 13 0.85 11 12 0.Echelle finale .3 4 0.4 5 0.8 10 0.7 8 0.6 7 0.75 9 0. Tableau 4 – Intervalles de temps opérationnel τ 1 2 0. Une partition jugée satisfaisante est présentée au tableau 4. tout en préservant dans chaque classe de temps un nombre raisonnable d’observations.95 14 0.975 15 1 vτ 0.Etude des données 41 Cette caractéristique permet de segmenter davantage le temps opérationnel pour les valeurs élevées de τ.5 6 0.2 3 0.9 0. L’hypothèse d’une tendance à la baisse des coûts moyens à partir de la valeur de temps opérationnel de τ = 0. Figure 13 –Coût moyen et temps opérationnel .9 est confirmée. En particulier. il s’agit d’estimer à partir de quelle valeur de temps opérationnel les observations de coûts moyens amorcent une décroissance. Cette démarche doit permettre d’affiner l’axe de projection des coûts moyens pour les valeurs élevées de temps opérationnel.

variance Dans le cadre des GLM. après avoir associé un intervalle de temps opérationnel à chaque coût moyen Sij. p Malgré les tendances temporelles observées sur les coûts moyens. Ce calcul est rendu possible en spécifiant une loi de distribution pour chacune des observations de coûts moyens Siτ.9 µ Milliers $ 1995 .0% 0 20.0% 75.0% 90. Les couples moyenne-variance sont représentés à la figure 14.0% 1 667 95.0% 70.0% V=µ 1. Par les GLM.3 96.0% 38.6 125.5% 3 333 V 50.Etude des données 42 III. on calcule la moyenne et la variance empirique des coûts moyens de chaque intervalle. La liaison croissante entre les deux variables déjà révélée par la figure 9 est confirmée.4 Le lien moyenne . nous estimons les paramètres du modèle de provisionnement par maximum de vraisemblance. Figure 14 – Liaison moyenne .0 67.variance (milliers de dollars) 5 000 100. nous disposons essentiellement des lois dites de type exponentiel liant l’espérance des variables modélisées à leur variance par la relation Var[Siτ τ ] = E[Siτ τ ] p . pour p ∈ R+. nous supposons sur chaque intervalle de temps que les observations des coûts moyens représentent les réalisations d’une unique variable aléatoire Sτ. soit en simplifiant la notation : Vτ = µτ .0% 97. dont l’espérance et la variance sont estimées par la moyenne empirique et la variance corrigée.0% 60.87 92.0% 10.0% 80. Ainsi.0% 40.5% 85.

Enfin. les petits des gros). si l’introduction du temps opérationnel vise à distinguer des profils de sinistres (en l’occurrence.Etude des données 43 Afin d’éprouver graphiquement l’hypothèse du lien moyenne-variance. nous avons choisi de modéliser les incréments à partir des coûts moyens par unité de temps opérationnel.2.87.2.1) du fait de l’instabilité des rapports historiques de développement. le calcul nécessaire des facteurs de queue se déduit naturellement du lien modélisé entre les coûts moyens et le temps opérationnel. τ 2 où Vτ. • Fort de ce constat. • L’inadéquation des méthodes par facteurs a été imputée (II. La possibilité de modéliser les coûts moyens à partir du temps opérationnel constitue la principale opportunité permise par le modèle. En outre.2). la volatilité des PSAP issue du calcul Chain Ladder a été mesurée (II. Le calcul est mené sous Solveur Excel.1) que la substitution du temps opérationnel à l’année de développement aboutissait à des coûts moyens plus homogènes. à partir de l’algorithme de Newton24. Les conséquences sur le choix du modèle Rappelons les conclusions issues de l’analyse qui vient d’être menée : • L’utilisation d’une cadence moyenne de paiements a été jugée inadéquate (II. µτ) en minimisant la quantité ∑ N ⋅ (V τ τ τ − µp ) . • Du fait des tendances surinflationnistes observées. 24 Les principes de l’algorithme sont rappelés en annexe. En illustration. Compte tenu des caractéristiques des données qui viennent d’être rappelées. . La nature paramétrique du modèle ouvre également des axes d’analyse intéressants. Il a été montré (III. l’hypothèse de stationnarité des coûts moyens par intervalle de temps opérationnel n’a pu être retenue (III. IV. On aboutit à la valeur p = 1. la courbe V = µP aux couples (Vτ.3) à la liaison entre le volume des paiements et le nombre des règlements instables en cadence. plusieurs points militent en faveur de son adoption. la moyenne arithmétique et le nombre d’observations associées à la valeur τ. il peut être informatif au regard des figures 10 et 11 d’étudier la surinflation des coûts moyens en segmentant l’analyse par niveau de temps opérationnel.2). En particulier. Le modèle de provisionnement présenté dans les sections suivantes est développé dans le cadre des modèles généralisés (GLM). nous ajustons. il n’est pas nécessaire de supposer l’hypothèse de stabilité dans le temps des coûts moyens par intervalle de temps opérationnel. µτ et Nτ représentent respectivement la variance corrigée.

k c • V variables z c . m observations de coûts moyens du triangle supérieur. telles que z ks = 1 si ir = k. 0 sinon.k Les m = 150 équations du modèle s’écrivent to to  ln S   z 1 L z T    to to  ln S1   z 1. Z s ) ∈ ℜ m×p désigne la matrice des p = T + I + V variables explicatives.1 M z c . τr).k + ∑ ξ kc z rc. l’année calendaire et la valeur de temps opérationnel associée à l’observation r.k + ε r . telles que z k = 1 . où ir.V m m z s . I. to . Z c . 25 Dans le cas des données étudiées. . LA MODELISATION DES COUTS MOYENS I. I  I   m  m  soit matriciellement.1 L z c . chacune caractérisée par un 3 . 0 sinon. ln S = Zξ + ε = η + ε . On définit les variables disjonctives suivantes25 : to • T variables z k .T explicatives de l’intervalle de temps opérationnel associé à to l’observation r.T  m .upplet (ir.k =1. • I variables z s . k =1 k =1 k =1 T I V (1) Où les termes résiduels εr sont supposés normaux. 0 sinon.L. k On modélise le logarithme de la rème observation de coût moyen par ln S r = ∑ ξ kto z rtok + ∑ ξ ks z rs. si uk < τr ≤ vk.L. k =1. I  ξ1   ε1    +   M M M  M      ξs   ε  L z s .V liées aux années calendaires.1 M s L c z 1.1 m s z I  ξ   ε      to s L z 1. V M c z1 s z 1. V = 17 et T = 15.k =1. • ξ = ξ . indépendants et d’espérance nulle et to z désigne la variable z k . où • Z = (Z to .1 z1 c L L M zV c z 1. telles que z k = 1 si tr = k. ….L.ξ to c ( s ' ) ∈ℜ p désigne le vecteur colonne des paramètres du modèle • η ∈ ℜ m désigne le prédicteur linéaire.c .1 La modélisation par les Moindres Carrés Ordinaires Le modèle de régression On considère les r = 1. tr = ir + jr – 1.Modélisation des coûts moyens 44 CHAPITRE II.I explicatives de la survenance.c . tr et τr sont respectivement l’année de survenance. s r .ξ . s associée à la re observation.T =  M  M M M     ln S   z to L z to m   m . on a I = 17.1 L z1.

Figure 16 – Coefficients des années calendaires 1 ξ kc 0 1 4 7 10 13 16 -1 k 26 c ∀ r. constituée d’une première période fortement baissière suivie d’une seconde haussière. Il est donc normal de retrouver les tendances observées sur la figure 13. les estimations des coefficients ξ kto sont égales à la moyenne arithmétique des log Sr. on ajuste le modèle ln S = Z ξ to + ε . On a donc 16 variables disjonctives explicatives de l’année calendaire d’observation des coûts moyens. Le profil des coefficients26 ξ kc rappelle l’évolution déjà observée (figure 10) des coûts. Pour ce modèle.Modélisation des coûts moyens 45 I.2 Les tendances élémentaires Afin d’identifier les tendances associées au temps opérationnel. Les estimations des paramètres ξ kc présentées à la figure 16 confirment que les coûts moyens restent assujettis à des tendances temporelles. où ε ≈ N 0. k c z17 = 0. on pose k =1 r . même après l’ajustement des tendances ξ kto . on a z r . Figure 15 – Coefficients du temps opérationnel 12 11 ξ το 10 9 10% 30% 50% 70% 80% 90% 95% 100% τ L’ajustement du modèle ln S = Z ξ to + Z ξc + ε to c (3) permet d’estimer les tendances liées au temps. Pour des problèmes de colinéarité entre les variables explicatives. σ to ( 2 ) ∧ to (2) aux données du triangle supérieur.17 = 1 − ∑ 16 z c . Les estimateurs ξ k sont représentés sur la figure 15. .

s 1 − hr 2 1 n 2 ⋅ e est l’estimateur de σ2. On connaît la variance du résidu observé er = ln(Sr ) − µ r : ∧ Var( er ) = σ2(1 − h r ) . La conformité de cette hypothèse peut être testée à partir de l’observation du graphe des résidus.3 Le terme stochastique Les modèles (2) à (4) supposent les résidus εr gaussiens.Modélisation des coûts moyens 46 L’ajustement aux données du modèle (4) ne permet pas de distinguer de tendances liées aux années de survenance.5 1 ξk s 0. donc les coûts moyens Sr lognormaux. on a n = 150 et p = 15 (les 15 variables disjonctives to z k ). où hr est le coefficient de levier28 de l’observation r et µr est l’estimation de ln(Sr) par le modèle (2). Les estimations des paramètres27 ξ ks sont présentées à la figure 17 ln S = Z ξ to + Z ξs + ε to s (4) Figure 17 – Coefficients associés aux années de survenances 1. Des résidus bien adaptés à la distribution normale sont les résidus de Student approximativement gaussiens pour de grands échantillons et d’expression (st) ∧ er où29 s = 2 = er . Ici. 1[. . Pour le moment. on a z17 = ∑ 15 k =1 to zk − ∑ 16 k =1 zs .5 0 1 3 5 7 9 11 13 15 k I. n − p − 1 ∑r =1 r 27 28 29 La variable disjonctive s z17 s est redondante au sens où ∀ r. retenons simplement que hr ∈ ]0 . k Nous explicitons un peu plus loin la forme de hr dans le cadre des GLM.

Modélisation des coûts moyens

47

La figure 18 présente les résidus de Student standardisés du modèle (2). Si les coûts moyens Sr sont log normaux, on s’attend à observer des résidus de profil gaussien. Ici, on observe que les résidus sont distribués de façon asymétrique, davantage étendus vers les valeurs inférieures à la moyenne30.

Figure 18 – Répartition des résidus de Student standardisés – modèle (3)

Ce constat suggère que la transformation logarithmique des Sr a « surcorrigé » la queue de distribution des coûts moyens. Autrement dit, les coûts ont une queue de distribution moins longue que celle de la loi log-normale.

II.

La modélisation par les Modèles Linéaires Généralisés

II.1 GLM contre MCO
Les modèles linéaires de la section précédente sont développés dans le cadre des Moindres Carrés Ordinaires (MCO). S’ils ont permis d’ajuster les tendances élémentaires des coûts moyens, ils demeurent un outil insuffisant dans l’étude de leur loi de distribution. En effet, le bon usage des MCO repose sur le respect d’une hypothèse difficilement tenable en pratique, celle de la normalité et de l’unicité de la variance des résidus, et par voie de conséquence des variables réponses. A ce sujet, notons que la transformation logarithmique des données peut dans certains cas être une solution au respect du cadre théorique des MCO. En effet, si les coûts moyens avaient été caractérisés par un même rapport moyenne-variance, le postulat log normal aurait permis de préserver l’hypothèse d’unicité de leur variance31.

30 31

Le coefficient d’asymétrie des résidus est égal à -1,14. Par exemple, supposons deux coûts moyens dont les moyennes respectives sont de 1 000 et 30 000, et les écart types de 100 et 6000. La

transformation logarithmique permet de considérer deux variables de même variance ln[1 + (200 1000) 2] = ln[1 + (6000 30000) 2] ≅ 0,04

Modélisation des coûts moyens

48

Cependant, dans le cas des données étudiées, la relation croissante décelée entre la moyenne et la volatilité des coûts moyens nous oblige à sortir du cadre des MCO. Pour cette raison, il apparaît plus approprié de recourir aux GLM et aux lois de type exponentiel qui leur sont associées. Ces modèles définissent une relation entre l’espérance du coût moyen et le prédicteur linéaire. Cette relation est caractérisée par une fonction de lien g telle que
p  −1 E( Sr ) = g  ∑ z r,k ⋅ ξk  ,  k =1 

(5)

to où z k et ξ k désignent selon une notation simplifiée les p = T+I+V variables z k , z c , z s et k k

les paramètres associés ξ to , ξ c , ξ s déjà présentés. On définit le prédicteur linéaire de la re observation

η r = ∑ z r ,k ⋅ ξ k .
k =1

p

La fonction g permet de relâcher l’hypothèse formulée par les MCO d’une relation linéaire entre E[S] et η. Ou plutôt, la relation reste linéaire, mais sous une certaine échelle. Par exemple, si l’échelle est logarithmique, on passe d’un modèle additif à un autre multiplicatif. Les modèles linéaires généralisés peuvent être ajustés en utilisant l’algorithme du score de Fisher. L’algorithme maximise la vraisemblance, ou de façon équivalente, minimise la déviance. Cette statistique peut être considérée comme la généralisation de la somme des carrés des résidus d’estimation des MCO32. La généralisation vient du fait que la variance de chaque observation peut être considérée comme une fonction de sa moyenne, évidemment inconnue. L’objectif de l’ajustement du modèle consiste à estimer cette moyenne.

II.2 Introduction aux GLM II.2.1 La famille des distributions exponentielles
Les coûts moyens Sr sont supposés indépendants et non identiquement distribuées. Leur loi de distribution appartient à la famille exponentielle et leur densité est de la forme
 S θ − b(θ r )  f (S r , θ r , φ ) = exp r r + c(S r , φ )   a (φ)  

Les fonctions a, b et c sont définies telles que f soit une densité de probabilité, avec a( φ ) positive et continue, b(θ r ) convexe et c(x r , φ) indépendante de θr. Ainsi, chaque observation a un coefficient propre θr, mais le paramètre d’échelle φ est le même pour toutes les observations.

32

On montre en annexe l’équivalence des deux notions dans le cas de la loi normale.

Modélisation des coûts moyens

49

On suppose par la suite que les fonctions a, b et c sont les mêmes pour toutes les observations. Autrement dit, chaque coût moyen est modélisé à partir de la même loi, mais avec un paramètre canonique propre θr lié à sa moyenne. Les paramètres réels θr et φ résument l’information relative à la moyenne et à la variance des coûts moyens. En effet, on peut montrer que pour ces distributions, on a

E( Sr ) = µr = b'( θr ) Var( Sr ) = φ ⋅ b ' '( θr )

(6)
,

(7)

où la valeur de φ > 0, si elle est inconnue, doit être estimée à partir des données33. Si comme c’est le cas des lois classiques, l’expression de l’inverse de b ' (θ r ) est connue, on peut exprimer le paramètre θr, directement en fonction de la moyenne des coûts avec θr = b '
−1

(µ r )

D’après (5), on a également
 −1  p  θ r = b  g  ∑ z r ,k ⋅ ξ k   .       k =1
' −1

Cette dernière expression explicite le lien entre la distribution des Sr et les paramètres ξ1,…, ξp estimés par maximum de vraisemblance. On remarquera que la fonction c est indépendante des θr et n’intervient pas dans l’estimation par vraisemblance. Comme θr est fonction de µr, on peut considérer que l’équation (7) établit un lien entre l’espérance et la variance des coûts moyens. En ce sens, on réécrit (7) en fonction de la fonction variance V :

Var S r = φ ⋅ V µ r ,

( )

( )

(8)

Les fonctions spécifiques aux distributions de la famille exponentielle sont présentées dans le tableau 5 pour les lois classiques.

Tableau 5 – Fonctions spécifiques d’une densité de type exponentielle
Lois Normale Poisson Gamma

φ
σ
2

µ r (θ r ) θr
eθ r

V(µr) 1

a( φ )

b θr

( )

c S r ,φ ω

(

)

φ φ φ

θ r2 2
eθ r

− 1 S r2 φ + ln 2πφ 2
-ln(Sr!)
1 φ

(

( ))

1 1/υ

µr µr2

-1/θr

-ln (-θr)

ln( Sφr ) − ln(Sr ) − ln(Γ( 1 )) φ

33

On estime

φ à partir de la déviance ou en ajoutant une contrainte dans le calcul par vraisemblance des valeurs des paramètres du modèle.

poisson et gamma. chaque distribution est entièrement spécifiée par son espérance et sa variance. ξ p sont solutions34 du système d’équations ∂ ∂ l(θ. θ r .2. on déduit que l’espérance et la variance du coût moyen sont liées par la relation Var( Sr ) = φ ⋅ E(Sr ) . φ S r ) = 0 ∂ξ k r ∂ξ k ∀ k = 1. b '  g −1  ∑ z r . A partir de (6) et (7). φ) est la contribution du coût Sr à la vraisemblance. φ s ) = ∑r ln f  S r . L .1 p r. les lois de type exponentiel possèdent deux caractéristiques majeures. φ      k =1           On remarque donc que le système d’équations constituant la fonction de vraisemblance est ∂l à maximiser sur ξ. 2 correspondent respectivement aux lois normale. ξ p de vraisemblance ( )' des paramètres du modèle est estimé en maximisant la fonction r l(θ.2 L’estimation des paramètres Le vecteur ξ = ξ1 . On obtient le vecteur ξ en annulant le vecteur score U = ∂ξ . 1. II. D’une part. p où les valeurs p=0. p  r ∂ξk  () 34 On peut montrer la stricte concavité de la fonction log-vraisemblance: l’extremum trouvé est donc unique et correspond à un maximum. φ S) = ∑ l r (θ r . . φ)] = ∑ l r où lr = 1 φ (S r θ r − b(θ r )) + c(S r . les paramètres ξ1 .  p  −1  De θ r = b '  g −1  ∑ z r .Modélisation des coûts moyens 50 En résumé.k 1 r. la variance de la variable réponse est fonction de son espérance. Autrement dit. L . φ S r ) = l r o θ r o µ r o η r ξ est une fonction composée. φ S) = ln L(θ. p. On remarque que l r (θ r .k ⋅ ξ k  .k ⋅ ξ k   obtenu par (5) et (6). L . φ S) = ∑r ln[f (S r . où µ = b'( θ ) ⇒ ∂ µ = b ' '( θ ) ⇒ ∂θr = 1 r r  r ∂θr r ∂µr b ' '( θr )  ∂ ∂µr 1  '  ηr = g( µr ) ⇒ ∂µ ηr = g ( µ r ) ⇒ ∂η = ' g ( µr ) r r  ∂ηr η = ξ z + L + ξ z ⇒ = zr. D’autre part. on déduit que       k =1    p    −1  l(θ.

L ξp  .    k =1  ∧ ∧ ∧ ' puis de   −1  ∧   l(θ. on remarque que les équations du maximum de vraisemblance pour ξ peuvent s’écrire Z W( ξ ) ' −1 ∂η (S − µ ) = 0 ∂µ Ce système d’équations n’est pas linéaire en ξ qui intervient à la fois dans les matrices W. on a f [g(x )] ' = f ' [g(x )] × g ' (x ) .k ∂l r ∂θ r ∂µ r ∂η r  S r − b ' (θ r )  ∂ ⋅ lr = .L. φ  .k = 0 ∂ξ k .L. φ S) ∂ξ k =∑ k (S r − µ r ) ∂l r =∑ ⋅ z r . ' k var (S r ) g (µ r ) ∂η ∂µ .k ⋅ ξ k  . on obtient 51 z r . et dans le vecteur µ . En posant u = g(x). k = 1.m = d φV(µ r )g ' (µ r )2    ∂ η  ∂η r  = d = {d g ' (µ r )}r =1.L. b '  µ r . . en considérant les matrices diagonales W et N = ∈ ℜ m×m telles que W (ξ ) = d var(S r ) ⋅ g ' (µ r )2 r =1. N. φ s ) = ∑r ln f  S r . on déduit finalement celle de     ∧ ∧   p µ r = g −1  ∑ z r . une variante de l’algorithme plus connu de Newton Raphson36.L.…. dx du dx Nous utilisons la procédure GENMOD du logiciel SAS qui utilise l’algorithme du score de Fisher détaillé en annexe.      35 36 dy dy du Si y = f o g (x ) = f [g (x )]. m .m   ∂µ  ∂µ r  r =1.Modélisation des coûts moyens En appliquant la règle35 de calcul des dérivées des fonctions composées.m   { } { } r =1. on obtient l’expression des p équations à résoudre : ∂l(ξ. on écrit = ⋅ . p. ⋅ =  V(µ ). . Une façon de le résoudre consiste à utiliser l’algorithme itératif des scores de Fisher.g ' (µ ) ∂ξ k ∂θ r ∂µ r ∂η r ∂ξ k  φ   r r Comme µ r = b ' (θ r ) . Ainsi. De l’expression de ξ =  ξ1.

On mesure l’adéquation du modèle à partir de la déviance normalisée D* = ~ ~ ∧   D = 2 log(L) − log(L) . Ce modèle ajuste parfaitement les coûts moyens. Comme la déviance est une différence de log-vraisemblances entre deux modèles emboîtés. mais doté de m variables explicatives. Notons que cette statistique ne permet la comparaison des modèles que s’ils sont issus d’une même composante aléatoire (V. on définit les hypothèses nulle et alternative du test H 0 : ξ k = 0 ∀ k > p  H 1 : ∃ k > p ξ k ≠ 0 . de mêmes distribution et fonction de lien que le modèle estimé.…. le modèle estimé est considéré « adéquat ». Autrement dit. φ   ∧ où L est la vraisemblance du modèle saturé et L celle du modèle estimé. le modèle est d’autant mieux ajusté aux données que la déviance est faible. nous utilisons la loi de la déviance sous H0. n. • On calcule le quantile de niveau (1 – α) de la loi du χ2(m – p) noté q1 – α : On rejette l’hypothèse H0 si Dobs > q1 – α Dans le cas inverse. il découle37 que la statistique D* suit asymptotiquement une loi du χ2(m – p). Dans notre cas.Modélisation des coûts moyens 52 II. On pourra se reporter à Saporta (2006) pour une démonstration dans le cas du ratio de vraisemblance. Par ailleurs. Pour quantifier cette notion. 37 . Le test de la déviance procède de la même volonté que celui du ratio de vraisemblance : il doit conduire à rejeter les modèles dont le niveau de vraisemblance est « trop éloigné » du niveau maximal associé au modèle saturé. De façon plus formelle. En ce sens.3 La déviance On construit un modèle saturé. k = 1.2. il ne dispense pas de l’analyse des résidus qui intervient en parallèle pour obtenir une information plus précise. φ). la déviance permettra dans le chapitre suivant de sélectionner le meilleur modèle parmi différentes structures paramétriques. la déviance sera répartie sur R+ mais avec plus de chance d’avoir des valeurs proche de zéro. le test de la déviance ne donne qu’une information sur la qualité globale d’ajustement du modèle aux données. Le test se déroule alors classiquement : • On calcule l’observation Dobs de D*. Ce résultat est principalement lié aux propriétés asymptotiques du maximum de vraisemblance. Si le modèle estimé est le « bon modèle ».

Modélisation des coûts moyens

53

II.2.4 Les résidus
En un point d’observation r, l’écart entre l’observation et l’estimation de coût moyen est le résidu brut :

er = Sr − µr .
Ces résidus er sont vus comme les réalisations des « vraies » erreurs inconnues

εr = Sr − E(Sr ) .
Dans le calcul des e.m.v des paramètres du modèle, nous avons vu que les hypothèses faites sur les εr consistaient à les supposer indépendants et distribués selon un type de loi à définir. Ainsi, si le modèle est approprié aux données, les résidus observés er doivent refléter les propriétés des vraies erreurs inconnues εr. Toutefois, l’interprétation des résidus bruts peut être délicate en cas de non normalité des données. En effet, comme ces résidus ne sont qu’une simple transformation linéaire des observations, n’importe quelle caractéristique de non normalité des données se répercute directement sur les er. En particulier, les résidus εr n’ont pas toujours la même variance. Pour tenir compte de la variabilité des résidus, on préfère utiliser des quantités standardisées comme les résidus de Pearson définis par e
(P) r

S −µ = r ∧r . V µr     

Peter K. Dunn et Gordon Smyth38 ont montré d’une part que la moyenne des résidus de Pearson est nulle, et d’autre part que si leur variance tend vers 0, leur distribution tend vers une loi normale. Par définition, on standardise le résidu er par la variance théorique de Sr, fournie par la fonction de variance V(.) et donc par le modèle. Ce n’est pas la variance de l’estimation µr qui est un estimateur donc aléatoire. Pour essayer d’obtenir des résidus de même variance approximative, on utilise les résidus de Pearson ajustés er
(Pa)

=

er V(1 − h r )

(p )

où hr est le levier de l’observation r, soit le re élément diagonal de la matrice H39.

38

Dunn P et Smyth Gordon K. (1996), « Randomized Quantile Residuals », Journal of Computational and Graphical Statistics, volume 5, issue 3, 236-244. 39 On rappelle en annexe I que l’algorithme du score équivaut à procéder à une régression linéaire à chaque étape et s’arrête à l’étape finale où le processus est stationnaire : ξ = Z 'W −1Z

(

)

−1

⋅ Z 'W −1Y . Autrement dit, on a µ = Z ⋅ ξ = H ⋅ Y , où H est la matrice de projection de Y

sur Z (la forme du vecteur Y est spécifiée en annexe).

Modélisation des coûts moyens

54

Les résidus de déviance standardisés constituent une alternative aux résidus de Pearson. Ils sont définis par er
(DS)
∧ sgn Sr − µr  ⋅ d r     , = ∧ φ⋅ (1 − h r )

où dr est la contribution de la rième observation à la déviance40. Cette définition est moins naturelle. En théorie, ces derniers résidus sont approximativement distribués selon une loi normale standard. Si tel n’est pas le cas, les conclusions du test de déviance peuvent devenir vides de sens.

II.3 Les hypothèses du modèle GLM II.3.1 Le choix de la distribution des résidus
Pour le moment, nous avons observé une distribution des résidus se situant en termes de queue de distribution en deçà de la loi log normale (section I.3). Pour estimer la distribution la plus adéquate, nous utilisons le modèle (9) :

E[S ] = exp Ztoξ + Zcξ
to

[

c

]

(9)

Ce modèle est inspiré du modèle (3), au sens où il partage la même structure paramétrique. En revanche, il ajuste les paramètres du modèle à partir des Sr au lieu des logarithmes népériens des Sr tout en exploitant une fonction de lien logarithmique. La pertinence de la fonction de lien est considérée dans la section suivante. L’exercice consiste ici en associant le modèle à une loi de distribution à tester l’adéquation de la loi aux données à partir des résidus de Pearson ajustés issus du modèle (9). Nous débutons l’expérimentation par la loi Normale. Les résidus issus du modèle GLM normal sont présentés à la figure 19. Nous continuons l’expérimentation avec la loi gamma et présentons les résidus issus du modèle GLM –gamma à la figure 20. Ces deux figures permettent d’observer empiriquement comment le choix de la fonction variance affecte les résultats des GLM. Si la forme du modèle est appropriée (distribution, fonction lien), on doit observer des résidus stables en moyenne et en volatilité quelle que soit la valeur des estimations. Hors, il apparaît sur la figure 19 que la volatilité des résidus de Pearson ajustés du modèle GLM – normal croît avec les estimations. Autrement dit, il ne semble pas adéquat d’utiliser une fonction variance gaussienne qui affecte la même volatilité à chaque observation. Ce résultat conforte les conclusions de l’analyse des données établissant un lien croissant entre variance empirique et moyenne des coûts moyens. A l’inverse, l’observation de la figure 20 permet de constater que l’usage de la loi gamma stabilise d’une part les résidus de Pearson ajustés, en moyenne et en volatilité, et d’autre part réduit le nombre et le montant des valeurs élevées.

40

L’expression de dr est rappelée en annexe J.

Modélisation des coûts moyens

55

Figure 19 – Résidus en fonction des estimations– loi normale

Figure 20 – Résidus en fonction des estimations – loi gamma

Par ailleurs, on remarque sur la figure 21 que l’utilisation de la loi Gamma corrige le problème d’asymétrie à gauche des résidus détecté en cas d’utilisation de la loi log-normale (figure 18). En témoigne la valeur proche de zéro du coefficient d’asymétrie des résidus. On observe également une distribution des résidus proche de la loi normale standard.

Figure 21 – Histogramme des résidus de Pearson ajustés - Loi gamma

. Il apparaît donc globalement raisonnable de modéliser les coûts moyens à partir d’une loi gamma. parce que ce choix conforte les conclusions issues de l’analyse des données. nous testons donc l’hypothèse de normalité des résidus de Pearson ajustés. Tout d’abord du fait des bons résultats issus des tests qui viennent d’être présentés. Le test est effectué à partir du QQ-plot des résidus présenté à la figure 22. Même si on devine sur la figure 22 une queue de distribution des résidus un peu plus épaisse que la loi normale. l’utilisation de la loi gamma aboutit à des résultats a priori satisfaisants. Le choix de cette valeur critique est évidemment motivé par l’approximation de la distribution des résidus ajustés de Pearson par une loi normale centrée réduite. Figure 22 – QQplot des résidus de Pearson ajustés Loi gamma Le QQ-plot est la représentation graphique des points (Φ −1( r m ) . En se fixant un seuil d’acceptation à 5%. Il n’apparaît donc pas anormal d’imposer une contrainte de stricte positivité41 sur les Sr. où les e(rPS) auront été préalablement triés par ordre croissant. une déviation trop importante des résidus de la distribution normale standard constitue souvent un bon indicateur de l’inadéquation de la distribution choisie. dans le cas de traités de réassurance en excédent de sinistres.Modélisation des coûts moyens 56 Dans la sélection de la distribution des résidus du modèle. on peut en effet considérer que les résidus correspondant à des écarts statistiquement significatifs sont ceux dont la valeur absolue est supérieure à 2. du fait des recours qui permettent à l’assureur subrogé dans les droits de l’assuré de récupérer la somme versée à son assuré auprès du responsable du dommage. Par exemple. il est fréquent de ne pas enregistrer de paiements lors d’une année comptable. Il arrive également que les triangles contiennent des incréments négatifs. Dans notre cas. les incréments du triangle en annexe A et les coûts moyens qui en découlent sont strictement positifs. où on identifiait la relation V = µ1. dès lors qu’il est possible d’observer des coûts moyens nuls ou négatifs.87. Ensuite. parce que ce choix n’apparaît pas aberrant aux vues des observations de coûts moyens. on observe que l’approximation normale de leur distribution reste satisfaisante. Enfin. une nouvelle lecture des figures 19 et 20 est possible. Là encore. 41 Rappelons que ce choix n’est pas trivial. e(rPS) ) . Cette hypothèse est testée graphiquement ci après. Ce graphique est destiné à vérifier l’adéquation d’une variable à une loi de distribution. Ainsi. Comme l’hypothèse de normalité n’est pas infirmée.

∧ Figure 23 – Diagnostic sur la fonction de lien logarithmique Milliers de dollars 1995 13 12 g(Sr) 11 10 10 11 12 ηr . Le lien logarithmique est donc relativement approprié au modèle.3. Dans le cas de la fonction de lien logarithmique. on calcule une approximation de g(Sr). on a g (µ r ) = ln µ r ⇔ g ' (µ r ) = 1 µr Puisque ln µr = ηr.Modélisation des coûts moyens 57 II.2 La fonction de lien Pour tester l’adéquation de la fonction de lien g. on en déduit l’approximation g (S r ) ≅ g (µ r ) + g ' (µ r ) ⋅ (S r − µ r ) = η r + Sr µr −1 (10) ∧ ∧ Dans le calcul de l’équation (10). On observe qu’il existe une relation approximativement linéaire entre l’estimation de g(Sr) et ηr . on utilise les estimations ηr et µr . Les résultats sont présentés à la figure 23.

celui de parcimonie. pour l = 2. le modèle contient « trop » de variables explicatives. l). Selon cette notation. A défaut. remplacée dans notre cas par le temps opérationnel. au sens où les données utilisées lors de l’ajustement ne constituent qu’un échantillon du processus à modéliser. Dans le chapitre précédent. Dans cette démarche. nous utilisons le modèle de séparation (Zehnwirth. y 42 Les tendances sont représentées aux figures 15 à 17. T. La qualité de l’ajustement se fait au détriment de la capacité de prédiction du modèle. I. On utilise une notation appropriée à la présentation du modèle de séparation.Spécification du modèle 58 CHAPITRE III. On parle de sous paramétrisation.1 La capture des tendances Le rappel du principe de parcimonie Evidemment. le logarithme du coût moyen du le intervalle (10) to où ξ k = y(k + 1) − y(k ) . On parle de surparamétrisation. si comme c’est notre cas. Cette section vise à capturer les tendances du chapitre précédent. Les observations (i. A l’inverse. L’équation (10) définit le modèle déterministe dit Cap Cod (CC). de temps opérationnel et on pose y(1) = ξs . rappelons que cette approche n’a pas répondu à un principe fondamental en économétrie. l’année calendaire et l’année de développement. les modèles paramétriques de provisionnement utilisent traditionnellement les trois dimensions du triangle : l’année de survenance.2 Le modèle de séparation Considérons une seule année de survenance i. désigne ici la différence entre les logarithmes des coûts moyens de deux intervalles de temps opérationnel adjacents. tout en réduisant les paramètres sans trop dégrader la qualité d’ajustement du modèle. LA SPECIFICATION DU MODELE I. l désignant le numéro de l’intervalle de temps opérationnel. on exprime y(l ) par : y (l ) = y (1) + y (2 ) − y (1) + L + y (l ) − y (l − 1) = ξ s + ∑ ξ kto k =1 l −1 On désigne par y (l ) = ln (S l ) . du fait de l’absence de variables importantes. l’utilisation de 47 variables disjonctives a permis de modéliser les coûts moyens en fonction de tendances liées à ces trois variables42. 1994) généralisant le modèle CCI. I. il est impossible de spécifier l’ensemble des variables explicatives de la formation du coût des sinistres. l’utilisation de trop peu de paramètres risque d’aboutir à une estimation biaisée. j) de coûts moyens sont caractérisées par le couple (t. les valeurs de ses paramètres capturent de la volatilité. Ainsi.…. pour k > 0. . Malgré la bonne qualité d’ajustement associée à leur utilisation.

] 1 . Pour l > 1. 2 ] et ] 2 . 0 sinon.6  21    ln S22 0.5   ln S 0 . k  S   k  L’intégration dans l’équation (10) d’une tendance annuelle surinflationniste ξc dépendante du temps définit le modèle CCI dit Cap Cod with Constant Inflation (CCI) : to y(l ) = ξ s + ∑ ξ k + ξ c ⋅ (t − 1) k =1 l −1 (11) Le modèle dit de séparation est la généralisation probabiliste du modèle CCI. .Spécification du modèle 59 to L’utilisation de la fonction logarithmique permet d’assimiler la variation ξ k au taux de e e croissance du coût moyen entre les k et (k+1) intervalles de temps opérationnel : S  ξ to = y(k + 1) − y(k ) = ln(S k +1 ) − ln(S k ) = ln k +1  . 0 sinon. 0 sinon. pour les colonnes associées aux (V – 1) paramètres ξ kc .3 La recherche des tendances du triangle La méthode suivie est ascendante. il convient d’être vigilant sur la formation de tendances dans les résidus d’estimation. à ajouter autant de variables explicatives pour modéliser les tendances liées aux variables t et τ. pour les colonnes représentant les (T– 1) paramètres ξ kto . On a alors 3 3 3 3  ln Sij τij     ln S11 0.4  12   ln S =  ln S13 0. On peut de cette façon réduire le nombre de paramètres du modèle. on a zij = 1 si k < i+j-1. I. on a zij = 1 si i = k. A chaque étape. on a zij = 1 si k < l. 1 ]. k k k =1 k =1 l −1 t −1 (12) On redéfinit les éléments de la matrice Z = {zij} de la façon suivante : pour les colonnes correspondantes aux I paramètres ξ ks . j) par la relation ln (S l ) = ξ s + ∑ ξ to + ∑ ξ c + ε l . Prenons un exemple pour I = J = 3. On suppose que le temps opérationnel est partitionné en trois sous intervalles égaux ]0. il convient de les cumuler en additionnant les colonnes associées de la matrice Z.7     ln S13 0. Elle consiste à partir d’un modèle construit sur la base d’un minimum de paramètres.1]. on modélise le logarithme du coût moyen de la cellule (i.1  s to  ξ1 ξs ξs ξ1 2 3  1 0 0 0 1 0 0 1  Z=1 0 0 1  0 1 0 1 0 1 0 1  0 0 1 0 to ξ2 0 0 0 0 1 0 c ξ1 0 1 1 1 1 1 ξc  2  0 0  1  0 1  1 Si des tendances sont constantes.3   ln S 0 .

Les résultats sont les suivants : Paramètres Estimation Ecart type ξs ξto 10. Sans surprise.0477 p-value 0. Bien que cela soit difficilement concevable.1050 < 0.7538 0. le paramètre ξc représentatif des tendances calendaires n’est pas significatif. De ce fait.Spécification du modèle 60 Le premier modèle testé est composé de trois variables.9966 – F – statistique = 21547 Les tendances observées sur t et τ sont surlignées en figure 24. nous essayons un modèle avec seulement deux paramètres ξs et ξto . Il correspond à l’hypothèse de tendances constantes.0001 0.0112 < 0. où ξ ks = ξ s . elles correspondent à celles révélées par les MCO dans la section précédente (figures 15 et 16).0001 R2 ajusté= 0. Figure 24 – Graphiques des résidus – Méthode de Zehnwirth – Etape 2 1 : résidus / temps opérationnel 2 : résidus / années de survenance 3 : résidus / années calendaires 4 : résidus / valeurs prédites . ξ kto = ξ to et ξ kc = ξ c .

1196 Ecart type 0.0107 0.17] τ ∈ ]0%. on aboutit au résultat final présenté au tableau 6.100%] t ∈ ]1.9974 .99 Figure 25 – Graphiques des résidus Méthode de Zehnwirth – Etape 3 1 : résidus / temps opérationnel 2 : résidus / années de survenance 3 : résidus / années calendaires 4 : résidus / valeurs prédites .0001 0.20%] τ ∈ [60%.0036 ξ to 1 to 3 ξ 4to c ξ1 ξc 2 R ajusté. Après le retrait de la variable associée.0001 0.5848 -0.90%] τ ∈ ]90% .0305 0.1042 -0.0009 < 0.0408 0.Spécification du modèle 61 Un premier ajustement confirme la nullité et la non significativité du paramètre de régression ξ 2to pour τ ∈ [20% .13] t ∈ ]13.0575 0.F – statistique = 9172. : 0.0024 0.1923 0.2229 -0.0189 0.0411 P-value < 0. 60%].5726 0. Tableau 6 – modèle de Zehnwirth Intervalles i ∈ ]1.1724 0.17] 2 Paramètres ξs ξ Estimateurs 11.

les années de survenance et les années calendaires ont été capturées. on a t = 15. (l − 6) ] + ξ − to 3 + − to 4 ⋅ (l − 11) + − + + ξ ⋅ (12.1 La modélisation des tendances Le temps opérationnel La section précédente a aboutit à la détection de quatre tendances relatives au temps opérationnel.7% à partir de 1992 (t = 13).15) à partir du couple (t. pour τ > 0. on a ln(S1. Par ailleurs.15) = 11.983.0575 × 12 + 0. Figure 26 – Modélisation des tendances sur i et τ . II.15 = 0. Selon la partition retenue du temps opérationnel. on estime: • Une tendance baissière de e-0. l) associé et des estimations des paramètres de régression : ln(S1.15) = 11. On estime le logarithme du coût moyen de la cellule (1.2229 – 4 × 0. En particulier. (l − 1) c 1 [ + ] + ξ ⋅ [5. cette cellule est associée au 15e intervalle. • Une tendance annuelle haussière de e0.1196 × 2 = 11.5848 .5274 et τ1.2591. L’identification de ces tendances permet de réécrire l’équation (12) : ln S l = + ξ s + ξ1to ⋅ 1.9.Spécification du modèle 62 La figure 25 suggère que toutes les tendances sur le temps opérationnel.1042 – 1 = – 9. soit l = 15. II. l’évolution des coûts moyens en fonction du temps opérationnel peut être représentée par des droites avec des ruptures de gradient aux points τ = 20%.5726 +5 × 0.15).1196 – 1 = + 12. et à aucune dans le cas de l’année de survenance. 60% et 90%.9% par intervalle de temps opérationnel. Comme le présente la figure 26. t − 1) + ξ 2c ⋅ (t − 13) (13) Par exemple pour la cellule (1.1042 – 0.0.

Ces résultats indiquent que les quatre paramètres ξto capturent l’essentiel de l’information contenue par les 15 variables disjonctives du modèle (15). (16) où Z rto désigne la rème ligne de la matrice Zto relative à l’observation r. 43 Comme ξ 2 = 0 ∧ to . il est possible de : • • remplacer les 15 variables constituant la matrice Zto par trois variables continues43.70 pour le modèle (15) à 44. Figure 27 – Variables continues explicatives du temps opérationnel 240 000 Sr f2( kr) f1( kr) Sr f (tr) f (tr) 1 2 160 000 80 000 0 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% τr Le recours aux variables continues ne dégrade pas significativement la qualité d’ajustement au sens de la déviance. La figure 27 superpose les fonctions f 1 (τ r ) et f 2 (τ r ) ajustées par GLM . les paramètres de régression sont tous significatifs au sens de leur P-value. (15) E [S r ] = f 2 (k r ) = exp(ξ s ⋅ 1 + ξ1to ⋅ (0.Spécification du modèle 63 Autrement dit. La correspondance entre les deux représentations apparaît satisfaisante.gamma. Reprenons la notation du début de chapitre où τr désigne la valeur du temps opérationnel de la rème observation de coût moyen.6)+ + ξ 4to ⋅ (τ r − 0. remplacer les 16 variables disjonctives constituant la matrice Zs par le vecteur unité 1 . on peut donc trouver une certaine correspondance entre les expressions suivantes : E [S r ] = f 1 (k r ) = exp Z rs ξ + Z rto ξ s ( to ).2 − τ r )+ + ξ 3to ⋅ (τ r − 0. Dans le modèle GLM – gamma. Par ailleurs.9)+ ) . qui passe de 40.52 avec le modèle (16).

Autrement dit. Cette notion est appelée par les auteurs surinflation44 ou inflation superposée.0 disj. A cet égard. une économie de variables explicatives peut également être effectuée.0 -0. 44 . Cette croissance est modélisée à partir des tendances observées sur t. tr) avec deux ruptures de gradient aux points tr = 7 et tr = 13.6 ) + ξ 4 ⋅ (τ r − 0. Le modèle (18) teste une structure paramétrique alternative f2(τr. avec to to to ln E[S r ] = +ξ s + ξ1 ⋅ (0. l’apparition de la surinflation peut être liée à de nombreux phénomènes déjà évoqués tels le renchérissement des frais de soin ou la revalorisation des salaires dans le secteur de l’aide à domicile.2 La surinflation On conçoit que l’inflation affecte différemment chaque branche d’assurance.2 − τ r ) + ξ 3 ⋅ (τ r − 0.Spécification du modèle 64 II. Le premier intègre dans le modèle (16) les tendances révélées par la méthode de Zehnwirth.9 ) + + c + ξ1 ⋅ (13 − t r ) + ξ c ⋅ (t r − 13) 2 + + + . il existe un facteur additionnel spécifique à chaque branche.9 ) + Z rc ξ + + + c Figure 28 – Tendances surinflationnistes 1.2 − τ r ) + ξ 3to ⋅ (τ r − 0. f (tr ) 0.0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 t Dans le cas des dommages corporels. (17) On note f 1 (t r ) = + ξ1c ⋅ (13 − t r ) t r + ξ 2c ⋅ (t r − 13) + + la partie de la forme paramétrique du modèle (17) dédiée à la modélisation de la surinflation. il est naturel de penser qu’en plus d’un taux d’inflation général. Cela consiste à substituer dans le modèle (17) la fonction f1(tr) par la fonction f 2 (t r ) = + ξ1c ⋅ t r + ξ 2c ⋅ (7 − t r )+ + ξ 3c ⋅ (t r − 13)+ (18) La figure 28 superpose les fonctions ajustées f1(tr) et f2(tr) aux coefficients ξc estimés à partir des variables disjonctives du modèle (19) : to ln E [S r ] = +ξ s + ξ1to ⋅ (0.5 1 2 f (tr ) Sér ie1 Sér ie2 Sér 0. Dans notre cas. le phénomène de surinflation peut être assimilé à la croissance des observations de coûts moyens calculées sur le triangle déflaté par Taylor.6 ) + ξ 4 ⋅ (τ r − 0. deux modèles sont testés.5 -1. Dans cet objectif.

les deux représentations continues sont équivalentes en termes de qualité d’ajustement.4030 3.Spécification du modèle 65 Le modèle (19) produit sensiblement les mêmes estimations des coefficients ξc que celles calculées par MCO (figure 16).value < 0.0002 0. l’introduction des seize variables disjonctives n’améliore pas suffisamment la qualité d’ajustement du modèle par rapport aux deux modèles alternatifs. Tableau 8 – Modèle avec temps opérationnel.92 Toutefois. Au sens de cette statistique.9464 0. .3910 3. surinflation et année de survenance Paramètres ξs to ξ1 Estimateurs 10. Avec le critère AIC.9140 -7. Les fonctions ajustées f 1 (t r ) et f 2 (t r ) capturent bien les tendances des coefficients ξc estimés à partir des seize variables disjonctives. on recherche la régression qui minimise la quantité AIC = D + 2 × p.0607 0. D’autre part. nous retenons ce modèle dont les caractéristiques sont présentées au tableau 8.0273 ξ 3to ξ 4to c ξ1 ξc 2 En passant du modèle composé des 47 variables disjonctives au modèle (17).0359 P .71 72. Le tableau 7 présente les valeurs du critère Akaike des trois modèles considérés.91 49. en améliorant le critère AIC de 123.0793 Ecart type 0. on aboutit à deux conclusions.0001 0. D’une part.4723 1.8030 -0.0165 0. La sélection entre f 1 (t r ) et f 2 (t r ) est faite à partir du critère AIC (Akaike Information Criterion) mettant en balance la précision du modèle évaluée par la déviance D avec la complexité du modèle mesurée par le nombre p de ses variables explicatives.9346 0.0003 < 0.12 à 49.1116 0. le recours aux tendances sur t et τ permet de réduire le nombre de variables explicatives de 47 à 6.0001 0.91. Tableau 7 – AIC des modèles Représentation des tendances surinflationistes Un changement dans le gradient des tendances Deux changements dans le gradient des tendances Variables disjonctives Modèle 17 18 19 AIC 49. comme la significativité des paramètres ξc est meilleure dans le cas du modèle (17).0001 < 0.

ν = 1.9 ) + + r + ∑I v =1 2 τ r ∈I v c × f 1. Une analyse graphique complémentaire46. On construit le modèle (20) : to ln E[S r ] = +ξ s + ξ1 ⋅ (0.v ⋅ (t r − 9 ) . ξ1.25% par an à partir de 1991 (t = 13).100%].v(tr) de structure identique à la fonction f1(tr) mais de paramètres propres ξ cj. 0 sinon.2 − τ r ) + to to + ξ 3 ⋅ (τ r − 0. Dans le cas des données étudiées. Alors.v (t r ) = ξ1c. On fait donc dépendre les paramètres de f1(tr) de τr. I2 = ]20%. 2 inférieures à 20%. on définit trois intervalles47 de temps opérationnel Iv. I2 = { τ | 20% < τ ≤ 60%}.60%] et I3 = ]60%.2.v ⋅ (9 − t r ) + ξ 2c.3 = ξ 3 . il peut être intéressant de tester l’existence d’un lien entre le temps opérationnel et la surinflation. 3 : I1 = { τ | τ ≤ 20%}. Pour tester la pertinence de ces tendances. + + 45 46 47 48 Se reporter aux figures 10 et 11. j = 1. I3 = { τ | τ > 60%}. on a . (20) où f 1. Si cette évolution reste envisageable dans le cas des petits sinistres.Spécification du modèle 66 II. A ce sujet. • Les coûts moyens associés à des temps opérationnels compris entre 20% et 60% décroissent depuis 1979 jusqu’en 1987 puis se stabilisent. elle est moins habituelle pour les gros. v . Iz = 1 si Z est réalisée.3 48. v = 1. On a I1 = ]0%.3 L’interaction entre le temps opérationnel et la surinflation Les tendances temporelles estimées sur les coûts moyens par le modèle (17) peuvent être assimilées à des taux de surinflation.ν =1 est le paramètre de surinflation sur la période 1979 – 1987 (t = 9) pour les coûts moyens associés à des valeurs de τ c c ξ1. De par l’unicité de la tendance croissante sur I3. • Les coûts moyens associés à des temps opérationnel supérieurs à 60% croissent sur l’ensemble de la période observée. si le temps opérationnel permet de distinguer les petits des gros sinistres.6 ) + ξ 4 ⋅ (τ r − 0. Les graphiques sont présentés en annexe K.3 = ξ c .révèle trois profils d’évolution : • Les coûts moyens associés à des temps opérationnels inférieurs à 20% décroissent depuis 1979 jusqu’en 1987 (t = 9) puis augmentent. v (t r ) + ξ 3 ⋅ t r . 2. auxquels on associe une fonction f l.20%]. c Par exemple.2. le modèle estime que les coûts moyens déflatés croissent annuellement de 8. nous avons observé45 des évolutions de coûts différentes selon le temps opérationnel des sinistres.

surinflation x temps opérationnel et survenance Paramètres ξ 3to ξ 4to ξ1c.0001 0.54% t>9 c exp(ξ1.93% . 2 c z 2. 2 c z3 Estimateurs 10.v(tr) pour τ = 20%.1 z1c.3 ) − 1 = −13.0453 0.1838 0.3 ) − 1 = −6.1103 0.3 ) − 1 = +3.5573 < 10 -4 -6.1 + ξ1.1730 0.0385 0. Figure 29 – Fonctions f l.9438 0. Les taux de croissance liés à ces tendances sont récapitulés au tableau 10.0143 0.5656 0.0464 -0. 60% et 90% 1.93% c exp(ξc .0318 <0.v(tr) ajustées sont rapportées à la figure 29.1388 0.5 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 t τ = 90. On aboutit aux résultats suivants : Tableau 9– Modèle avec temps opérationnel.00% τ = 60. 2 ξ 3c ξ1c.92% 2 c exp(ξ1. l’’exclusion de cette tendance du modèle conduit à estimer une croissance commune sur cette période pour les deux ensembles.1 ξs ξto 1 Variables z s z1to to z2 to z3 z1c.8046 1.00% Tableau 10 – Taux de croissance annuels estimés des coûts constants moyens Intervalles I1 I2 I3 t≤9 c c exp(− ξ1.0005 0.3 ) − 1 = −9. Ce résultat est lié à la redondance des tendances des coûts moyens des ensembles I1 et I2 pour la période postérieure à 1987.52% 2 c exp(ξ1.00% τ = 20.5 Décroissance sur I2 -0.9213 3.93% c exp(− ξc .3 ) − 1 = +3. 2 ξ 2c.0346 0.Spécification du modèle 67 Un premier ajustement aux données conclut à la nullité et à l’absence de significativité du paramètre ξ 2c.5178 Ecart type P-value AIC = 51.1 .0157 0.3 ) − 1 = +3.2004 < 10 -4 1. Ainsi.0022 0.1975 2.2 + ξ1.5 Croissance sur I1 et I3 0.1 + ξ1. pour des valeurs charnières de temps opérationnel.0014 Les fonctions f l.

92% pendant deux à trois ans . nous décidons de maintenir cette hypothèse. on voit que τ dépasse 60% en moyenne entre la 3e et la 4e année de développement. cette décision influe essentiellement sur le coût futur estimé au titre de la dernière survenance49. Elles témoignent de la bonne qualité d’ajustement et de la capture des tendances surinflationistes. S S estimé 125 000 Décroissance sur I2 67 500 10 000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 t Figure 32 –Coûts moyens et estimations . le postulat équivaut donc à anticiper une baisse annuelle des coûts moyens de 6. 240 000 S S estimé 182 500 125 000 67 500 10 000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 t Figure 31 –Coûts moyens et estimations . Figure 30 –Coûts moyens et estimations . Dans le cadre du provisionnement.τ > 60% 240 000 S S estimé 182 500 125 000 67 500 10 000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 t 49 Par le triangle des temps opérationnels (annexe F). Du fait de la forte significativité de ξ 2c.20% < τ ≤ 182 500 60%.τ ≤ 20%. 2 . il est légitime de s’interroger sur la pertinence de projeter la tendance baissière observée sur I2. Aux vues du triangle des temps opérationnel. Pour la dernière survenance.Spécification du modèle 68 Les figures 30 à 32 présentent les coûts moyens déflatés dans le temps et leurs estimations par le modèle (20). dont les causes restent inconnues.

Dans ce cas. 50 Si par exemple a > 1 et b < a. En stipulant sur la dépendance entre N1 et N2. En l’occurrence. Et dans le cas inverse de corrélation négative entre N1 et N2.j).j).1 . > > N1 aN1 aN1 .1 et Nj. mais également pour des sinistres toujours ouverts à la fin de cette même période.1 sont connues. En effet. La modélisation des paiements partiels III. Si N1 fluctue au delà (en deça) de son espérance.Spécification du modèle 69 III.1 + X j . on peut s’attendre à observer une hausse (baisse) de X1 sans pour autant que la valeur de N2 (et a priori celle de X2) ne soit affectée.1 des prestations payées l’année de développement j en règlement de sinistres. De ce fait.2 le nombre de prestations payées durant l’année de développement j respectivement au titre des règlements de sinistres et des paiements partiels. Autrement dit. dont on réécrit la somme des prestations payées au délai j X j = X j . 2 . on a bien X1 + X 2 aX1 + X 2 aX1 + bX 2 .1 L’exposé du problème Il n’est pas rigoureux d’assimiler la quantité Xij/Nij à une prestation moyenne par sinistre réglé. on s’attend à une baisse (hausse) de Sj par rapport à son espérance. les prestations formant Xij sont versées au titre des Nij sinistres réglés en (i. et de celle Xj. voire éliminée si la valeur de N2 est proportionnelle à celle de N1 conditionnellement à N1. Dans ce cas. la quantité S étudiée jusqu’ici s’exprime en ces termes avec Sj = Xj N j . Nous sommes dans le cas le plus courant où seules les quantités Xj et Nj. la corrélation négative entre Sj et N1j décrite plus haut est atténuée. cette quantité représenterait effectivement la prestation moyenne payée en (i. si le règlement de chaque sinistre était effectué au moyen d’un unique paiement.2 des paiements partiels liés aux sinistres en cours à la fin de l’année j. au sens où les processus X1 et X2 peuvent suivre des développements différents quand τ varie entre 0 et 1. l’effet est accentué50. Supposons que les quantités N1 et N2 soient corrélées positivement. comme la somme Xj. on peut identifier l’influence des deux processus sur la définition du coût moyen Sj. un sinistre peut déclencher de nombreux versements. Considérons tout d’abord N1 et N2 comme indépendants. Considérons une année de survenance i. La prise en compte des paiements partiels complique la modélisation des coûts moyens. On désigne par Nj. Cependant. les variations aléatoires de S autour de son espérance seront corrélées négativement avec celles de N1. Ce phénomène peut provenir de l’absence de distinction entre règlement et paiement partiel dans les procédures de gestion : les hausses (baisses) concomitantes de N1 et N2 traduisent celles de l’activité des paiements au sens large.

Sous ces hypothèses.t. Le respect de cette condition dépend en fait du rythme des règlements. par exemple p = 50% des sinistres en cours génèrent un paiement partiel correspondant à Γ = 20% du coût d’un sinistre réglé.1 ) = N j . Sous cette hypothèse. En supposant l’indépendance des nombres et des prestations51.t ⋅ 1 + R j ⋅ ξ pp . la condition est respectée si les nombres de règlement N1. Si en moyenne.2) = Γ. (2004). on a ξpp. Pour l’année de développement j associée aux temps réel et opérationnel t et τ.Spécification du modèle 70 III.2. Si comme dans la plupart des cas52.τ. 2 ) = L j ⋅ p ⋅ Γ ⋅ mτ . Dans ce cas. L’approche de Wright (1992) repose sur les deux hypothèses fondamentales suivantes : • Le montant moyen d’un paiement partiel observé durant l’année j peut être exprimé en proportion de mτ. t.t  A partir de (21) et (22). on peut consulter Denuit et al. Sur le sujet. . on remarque que le coefficient ξpp exprime l’espérance d’un paiement partiel en proportion de mt. A ce sujet.Rj < 1.2) = Nj. on désigne par mτ. étant donné un scalaire Γsupposé unique ∀ τ. on réécrit l’espérance de Xj: (21) (22) E (X j ) = E (X j .Γ.t ⋅ exp R j ⋅ ξ pp ( ) (23) Si les Rj sont connus. le coût moyen a pour espérance E (S j ) = mτ . Wright préconise d’utiliser l’équation (23) pour estimer ξpp.Rj au coût moyen d’un sinistre réglé. Si ξpp est significatif. 2 ) = N j .t ⋅ 1 + R j ⋅ ξ pp . • Chaque sinistre en cours produit des paiements partiels suivant une loi de Poisson de paramètre p.t.Lj).1 ( ) et ξpp = p. Wright propose de modéliser Rj à partir de τ.2 est distribué selon une loi Poi(p.t    E (X j .1 ) + E (X j . on a  E (X j . Comme E(Xj.1 ⋅ mτ .τ. 51 52 Ce résultat élémentaire de théorie du risque est rappelé en annexe L. : E(Xj. on peut estimer E(Sj) par ( ) E (S j ) ≅ mτ .j sont supérieurs ∀j à ξpp = Γ × p = 10% du nombre des sinistres en cours. mτ.mt.2 L’approche de Wright Considérons une seule année de survenance.t la prestation moyenne d’un sinistre réglé et par Lj le nombre moyen de sinistres encore en cours à la fin de l’année. l’introduction des paiements partiels revient à appliquer un facteur multiplicatif ξpp. on intègre la variable associée z pp dans le modèle. la quantité Nj. Autrement dit. il est nécessaire au moment du calcul des provisions de déterminer un modèle de projection des Rj au delà des horizons de temps observés.1 ⋅ mτ .ξpp. où Rj = Lj N j .

0149 0.0117 < 10-4 0. 2 -0. au sens de sa p-value.1991 0.5171 < 10-4 ξ 4to -8.8890 < 10-4 ξ1c. surinflation et paiements partiels Paramètres ξs ξ pp ξ 3to 3.τ).3 0.0430 0.1448 0.9656 0. Les valeurs des Rij sont déduites des triangles exposés en annexe B et D. On obtient les résultats suivants : Tableau 11 – Modèle avec année de survenance.1 devenue non significative. il s’agit simplement d’introduire la variable zrpp = ⋅Rr = Lr Nr . Du fait de la colinéarité des deux variables sur l’intervalle [0% . Remarquons que le modèle (24) est construit en substituant zrpp à z rto.0402 0. cette substitution n’entraîne pas de variation notable dans la valeur des estimations des autres paramètres. temps opérationnel. le passage du modèle (20) au modèle (24) améliore la qualité de l’ajustement au sens du critère AIC.2015 0. la significativité du paramètre ξpp conduit à conclure à l’influence des paiements partiels dans la formation des coûts moyens au sens du modèle de Wright.1862 0.1 dans le prédicteur linéaire du modèle (20). 2 0.0003 De façon générale.0008 ξ1c.1 = (0. En particulier. L’ajustement du modèle (24) conduit à extraire la variable zrto.0423 < 10-4 ξ 2c.3 L’application numérique Comme le modèle (20) définit une forme linéaire pour ln(mt.0936 0.0606 1.1 0. Cette action définit le modèle (24). 20%[. Figure 33 – Ratios Rij des paiements partiels en fonction des τij 40 35 30 25 20 15 10 5 0 0% 20% 40% 60% 80% 100% τ .0044 ξ1c.0425 Ecart type P-value AIC = 49.Spécification du modèle 71 III.0072 Estimateurs 9.9955 0.0328 0.2 − τ r ) + dans le modèle (20).

pp ) et à la forte Notons que la valeur estimée de ξpp n’est pas en contradiction avec l’interprétation théorique donnée par Wright : l’auteur fait référence à une valeur de c = 10%. la forme linéaire Rτ = α0 + α1/τ ajuste bien les données. . L’estimation des moindres carrés donne α 0 = 1. Selon Wright.5). associée aux paramètres Γ = 50% et p = 20%. soit un taux de règlement de 1/14 ≅ 7%.t = 9 120 000 modèle (20) modèle (24) 70 000 20 000 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% τ Ce phénomène est lié à la décroissance monotone du facteur exp(R j ⋅ ξ baisse des Rj sur cet intervalle. 53 Pour j = 1. il est nécessaire d’estimer les valeurs des Rij pour les valeurs futures de temps opérationnel. pour se stabiliser autour de 40% par la suite (soit Rij ≅ 2. Ce phénomène peut être lié au temps de traitement des règlements et des déclarations des sinistres. Figure 34 – Estimation des coûts moyens modèle (20) contre modèle (24) . Le même taux passe à 30% en j = 2. Si on inclut l’effet des paiements partiels dans les projections de coûts. et dans une moindre mesure sur le 2e intervalle.20%]. on a en moyenne Ri1 = 14. la significativité du coefficient ξpp suffit à maintenir les paiements partiels dans le modèle. A ce sujet.Spécification du modèle 72 La figure 33 témoigne du niveau particulièrement bas53 du taux de règlement sur le 1er intervalle de τ. une interprétation de la baisse des coûts par sinistre réglé est possible sur l’intervalle de temps opérationnel [0% .5818 On observe sur la figure 34 que l’introduction des rachats partiels dans le modèle (24) corrige le profil de la courbe mt.τ sur l’intervalle τ ≤ 20%. En outre. de telle sorte que l’ensemble des éléments de la matrice Z soient connus.5181  α 1 = 0. La courbe ajustée est présentée à la figure 33 (en vert). Les coûts moyens estimés sont présentés pour t = 9 de sorte à annuler l’effet du temps réel et ne faire ressortir leur évolution qu’en fonction du temps opérationnel.

Spécification du modèle 73 Dans tous les cas. le facteur exponentiel décroit du fait de la baisse des Rij avec τ. les paiements partiels accroissent le niveau de Sj en augmentant son numérateur Xj. le taux de règlement se stabilise au-delà de τ ≥. D’autre part. ou de façon équivalente à des valeurs de temps opérationnel inférieures à 20%.τ reste stable. sans contrepartie au numérateur (on a Nj. elle présente les coûts moyens par sinistre en fonction du temps opérationnel. il est possible d’observer une décroissance du coût moyen par règlement. 54 55 On modélise les coûts moyens sans rachats partiels en soustrayant le facteur Rτ ⋅ ξ du prédicteur linéaire du modèle (24) Les règlements sans suite gonflent le dénominateur de S j = X j N j . Les coûts sont estimés à partir du modèle (24) et de valeurs Rτ calculées à partir des estimations des coefficients α0 et α1. Cette période correspond à la première année de développement. Figure 35 – Estimation des coûts moyens modèle (24) .20%.1. Par la suite. En début de partie. ( ) . la figure 35 confirme la baisse de mt. sans contrepartie au dénominateur Nj. Tous paramètres de Sj égaux par ailleurs. on obtient la décroissance de Sj en supposant des règlements sans suite croissant avec j. une deuxième possibilité d’explication avait été énoncée : il s’agissait de considérer que les règlements sans suite intervenaient majoritairement les 1ères années55.τ pour les valeurs élevés de τ. Pour une valeur de t donné. même si la prestation individuelle moyenne mt. Aucune information ne permet de valider cette hypothèse. avec et sans rachats partiels54.2 . D’une part. Au même titre. Ce phénomène est illustré par la figure 35. il est impossible de juger du rôle des paiements partiels dans la baisse des coûts moyens pour les valeurs élevées de τ.t = 9 120 000 sans paiement partiel avec paiement partiel 70 000 20 000 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% τ Le modèle (24) explique donc la décroissance des coûts moyens Sj sur les deux 1er intervalles de temps opérationnel par une forte baisse de la proportion des paiements partiels dans l’ensemble des prestations. Or.1 = 1 et Xj = 0).1 + N j .20%]. au sens où les deux termes de E(Sj) décroissent pour les valeurs élevées de τ. l’introduction des paiements partiels dans la modélisation fournit une interprétation fortuite à la baisse du coût moyen par sinistre réglé observée sur les 1ères valeurs de temps opérationnel : L’observation de la figure 33 rappelle que le taux de règlement 1/R est particulièrement faible au début de l’écoulement du risque. Si le taux de règlement croît fortement comme c’est le cas sur l’intervalle ]0%.

. confrontant ces coûts et leurs estimations par les deux modèles. 240 000 S 182 500 S estimé 125 000 67 500 10 000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 t Il convient cependant de relativiser la portée sémantique de ce résultat. L’observation de la figure 34 rappelle que les deux modèles partagent sensiblement les mêmes estimations pour les intervalles de temps opérationnel supérieurs à 20%. qu’il considère avant tout comme un outil d’ajustement à confronter aux données. Figure 36 –Coûts moyens et leurs estimations modèle (20) sans paiements partiels − τ ≤ 20%.Spécification du modèle 74 IV. il s’agit de choisir entre les modèles (20) et (24). Le choix du modèle (20) est motivé par ce même pragmatisme. Comme la substitution de z rpp à z rto. En ce sens. Cette conclusion semble confortée par les figures 36 et 37.1 ne fait que peu varier les estimations des autres paramètres du modèle. La sélection du modèle final A ce stade. 240 000 S 182 500 S estimé 125 000 67 500 10 000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 t Figure 37 –Coûts moyens et leurs estimations modèle (24) avec paiements partiels− τ ≤ 20%. nous sommes tenté de conclure que l’amélioration du critère AIC du modèle (20) au modèle (24) est liée à au meilleur ajustement des coûts moyens sur le premier intervalle de temps opérationnel. Wright tempère l’importance que l’on doit accorder à la vérification des hypothèses sous-jacentes à la modélisation des paiements partiels.

Alors. le meilleur ajustement des « premiers » coûts moyens est de peu d’influence. dont les caractéristiques sont rappelées au tableau 12 : Tableau 12 – Variables explicatives et paramètres associés Modèle (20) Modélisation Année de survenance Temps opérationnel Temps opérationnel Temps opérationnel Surinflation Surinflation Surinflation Surinflation Paramètres ξs to ξ1 to ξ2 to ξ3 Observations zij zs = ⋅1 r zrto1 = (0. ξ1.1 c z r. Dans le cadre du provisionnement.3 = t r c . dès lors que les temps opérationnels des prestations futures à estimer sont dans leur grande majorité au-delà de 20%. + z rto4 = ⋅(τ ij − 0. le maintien des paiements partiels dans le modèle alourdirait inutilement la procédure de calcul des provisions. en ce sens qu’il nécessiterait la projection des Rτ.1 = Iτ r ∈I1 × ( 9 − t r ) c c + ξ1.2 c c ξ3 + z r.9) + . nous décidons donc de retenir le modèle (20).2 = Iτ r ∈I 2 × ( t r − 9 ) c + ξ2.2 = Iτ r ∈I 2 × ( 9 − t r ) z r.1.2. + z rto3 = (τ ij − 0.Spécification du modèle 75 Dans le cadre du provisionnement.6) .2 c z r.2 − τij ) .1.

Sans connaissance a priori du processus étudié. Ce point ne sera donc pas étudié. cet échantillon peut inclure des observations qui sans être erronées influent de façon « exagérée » sur l’ajustement du modèle aux données. A ce sujet. il est impossible de statuer sur cette problématique étant donné notre méconnaissance du portefeuille. I. • Le défaut de « justesse » des données de l’échantillon : Les données disponibles peuvent ne pas refléter le processus à modéliser. • Hypothèse n°3 : Un lien est supposé entre la variance et l’espérance des coûts moyens. II. A ce sujet sont introduit deux notions : celle de point atypique et celle de point influent. on parle de modèle bien spécifié. dont les plus importantes sont : • L’inadéquation des hypothèses formulées sur le processus générateur des données : Le premier point traite de la pertinence d’utiliser le modèle retenue au regard des données à modéliser. l’adéquation de la fonction logarithmique a été confirmée en amont. la bonne spécification du modèle ne peut être testée qu’à partir des données disponibles. Or. Leur étude est l’objet de la troisième section. Ce point est traité dans la section II. On peut par exemple s’interroger sur la pertinence de garder dans l’échantillon d’ajustement une observation de valeur extrème et de faible fréquence. VALIDATION DU MODELE PAR DES TESTS STATISTIQUES Les points de validation Le choix du modèle et les conclusions qui en sont issues dépendent exclusivement des données observées. On peut citer trois hypothèses centrales : • Hypothèse n°1 : La fonction de lien lie l’espérance des coûts moyens avec le prédicteur linéaire. nous testons la crédibilité de notre principal outil de diagnostic dans la construction du modèle de provisionnement : le test de la déviance. Les résidus utilisés dans l’annalyse graphique sont les résidus de déviance normalisés. Différentes causes peuvent venir jeter un doute sur leur pertinence. Les tests sur la spécification du modèle La pertinence d’utiliser le modèle (20) dépend de la crédibilité d’hypothèses formulées a priori sur le processus générateur des coûts moyens. Dans notre cas. . En fin de chapitre. • Hypothèse n°2 : Le modèle suppose une dépendance entre les coûts moyens et les variables constituant le prédicteur linéaire. Une préoccupation majeure de la modélisation est alors de juger de la fiabilité de ces conclusions. Si les hypothèses apparaissent cohérentes. • La sensibilité du modèle à de faibles variations des données : Les données historiques ne constituent qu’un échantillon du processus à modéliser. il est possible de statuer à la bonne spécification d’un modèle à partir d’un échantillon pas réprésentatif. Autrement dit.Validation du modèle 76 CHAPITRE IV.

Les extrémités de la boîte matérialisent les 25e et 75e quantiles. il s’agit de vérifier globalement tant la pertinence des variables explicatives que la forme de leur dépendance supposée avec la variable réponse. mauvaise définition de la fonction variance et/ou du lien entre la variable réponse et une/des variables explicatives. Ainsi. En pratique. inadéquation d’un modèle unique sur l’ensemble des valeurs de coûts moyens. La reconnaissance d’une tendance dans les résidus peut révéler des problèmes très divers56. …. On rappelle que cette contrainte est également d’ordre théorique. 56 57 oubli de variables explicatives. et le point la médiane.Validation du modèle 77 Test de l’hypothèse n°2 Le test de l’hypothèse n°2 est global. les figures 38 à 41 ne doivent pas faire apparaître de structure non aléatoire qui témoignerait qu’il existe des tendances dans les données non capturées par le modèle. Il doit permettre de confirmer qu’il n’existe pas de problème majeur dans la modélisation de la dépendance entre les coûts moyens et les variables explicatives. témoignant de l’absence de tendances des résidus en fonction des variables explicatives. celles de chacune des barres les valeurs extrêmes. dès lors que la qualité globale des résultats dépend en régression de l’indépendance des résidus et des variables explicatives. . Figure 38 – Résidus contre estimations Figure 39 – Résidus contre temps opérationnels Figure 40 – Résidus contre années de survenance Figure 41 – Résidus contre années calendaires On constate sur les figures 39 à 41 une horizontalité satisfaisante du centre des boîtes à moustaches57.

ce lien doit en particulier être stable pour toutes les valeurs de τ. Rappelons que l’hypothèse d’homoscédasticité des résidus. où k est le nombre de variables explicatives du modèle auxiliaire. L’hypothèse d’homoscédasticité testée est H0 : b1 = …=bp = c11 = … = cpp = 0. Test de l’hypothèse n°3 Quant à la pertinence du choix de la fonction de variance. n − k −1 . elle 2 est distribué approximativement selon un χ k .89 est associée à une p-value de 9. Sous H0.Validation du modèle 78 Par ailleurs. Ce test éprouve le pouvoir explicatif des variables explicatives sur les carrés des résidus.…). on ne peut donc pas statuer à un problème de spécification du modèle. En théorie. elle est testée à partir de la propriété d’homoscédasticité des résidus. la constance des écarts types des résidus normalisés dépend de la validité de la relation Var(Sr) = φ. Ici. Ce constat témoigne de la qualité globale de la régression. en ce sens que les estimations ne semblent pas biaisées pour certaines valeurs de coûts moyens. est centrale en économétrie. Autrement dit. on ne peut rejeter l’hypothèse H0 d’homoscédasticité des erreurs. Le test d’homoscédasticité des résidus constitue donc un outil supplémentaire pour conforter le choix de la loi utilisée pour modéliser les Sr. la lecture de la figure 38 de gauche à droite montre que les résidus sont relativement stables en moyenne et en volatilité. Formellement.83%58. Le test de White est construit à partir d’un F-test de significativité globale de l’équation (25). le lien supposé entre la moyenne et la volatilité des coûts moyens ne doit pas dépendre des variables explicatives. le diagnostic n’apparaît pas immédiat. Autrement dit. Ce test peut être effectué graphiquement à partir des boîtes à moustaches des résidus de déviance : on statue à leur homoscédasticité si les boîtes ne sont pas de taille « trop » hétérogène. . on emploie le test de White. Dans notre cas. Au regard des figures 39 à 41. sa transgression biaise les écarts type des estimations des paramètres et altère la fiabilité des tests d’inférence statistique construits à partir des écarts types (t-test. F-test. White définit la régression auxiliaire non contrainte e 2 = a1 + ∑ b j ⋅ z j + ∑∑ cij ⋅ z i ⋅ z j j =1 i =1 j =1 p p p (25) où e est le résidu d’estimation issu du modèle (20) et zj une de ses p variables explicatives. on ne peut rejeter l’hypothèse H0. 58 On rappelle que la statistique du test est basée sur le coefficient de détermination R2 de l’équation de régression auxiliaire. Dans la pratique des GLM. la statistique du test égale à 30. Au seuil de 5%.V(µr) sur l’étendue de chaque variable explicative. ils semblent indépendants de la valeur des estimations. soit celle de la constance de leur variance. Si la p-value de la statistique de test est supérieure au seuil défini. Pour vérifier l’hypothèse d’homoscédasticité des résidus. De façon générale.

Afin de statuer sur leur maintien dans l’échantillon d’ajustement. alors l’estimation des coefficients sera fortement changée. Notre méconnaissance du portefeuille ne permet pas de répondre à cette dernière question.77 134 428.24 105 233.30 -2. ∧ .987 0. Ces résidus présentés au tableau 13 correspondent à des observations de coûts moyens dont les montants sont inhabituellement bas compte tenu des valeurs de temps opérationnel et réel qui leur sont associées.85 -3. l’observation des figures 38 à 41 permet de constater l’existence de valeurs « anormales » (> 2).66 102 247.04 2.17 2. Par définition.33 17 692.60 94 934. Un seul point aberrant peut biaiser le modèle jusqu’à rendre ses prédictions erronées. nous étudions leur influence. Tableau 13 – Valeurs atypiques – modèle (20) i 1 3 3 3 2 1 3 2 J 11 13 14 15 12 13 4 14 τ 0. p     ' L’expression de la matrice H est rappelé en annexe59.6 9 557 15 013. La question est bien illustrée par la notion de point aberrant.02 -2.38 100 573. on a µ = Z ⋅ ξ = H ⋅ Y .989 0.36 94 934.67 -3. Le test de robustesse En ce qui concerne les points atypiques.19 -3. 59 On rappelle en annexe I que l’algorithme d’estimation fait une régression linéaire à chaque étape et s’arrête à l’étape finale où le processus est stationnaire : ξ = Z 'W −1Z ( ) −1 ⋅ Z 'W −1Y .51 ∧ er( DS ) -3.992 0.43 106 547.991 0. un point influent pèse sur le modèle de telle sorte que si on l’enlève.993 Sr 7 116. Une mesure classique d’influence est celle de Cook qui est une distance entre le vecteur ξ des coefficients estimé avec toutes les observations et celui ξ (− r ) estimé avec toutes les observations sauf une. La distance de Cook pour l’observation r se mesure à l’aide de la métrique (Z’WZ) : Dr = ∧ ∧ 1 ∧  ∧  ⋅  ξ (− r ) − ξ  ⋅ Z 'WZ ⋅  ξ (− r ) − ξ  .44 25 627. On remarque toutefois que les coûts de montant inhabituel sont associés à d’anciennes survenances. Autrement dit.478 0.60 93 360.82 27 768. où H est la matrice de projection de Y sur Z.29 236 510 µr 93 498 . même dans des régions éloignées de l’observation aberrante.969 0.Validation du modèle 79 III.08 Cela conduit à s’interroger sur la « justesse » de ces observations plus forcément représentatives du processus analysé.999 0.

60 Sτ.994 0.34 108 499.34 108 499.04 60 J. différence dans la population.23 0. si la distance de Cook est grande pour une observation et/ou très différente des autres. Compte tenu du seuil de détection fixé à 4/(150-8-1) ≅ 0.996 0.moy 47 336.06 0.54 129 732. Confais (UPMC-ISUP). .10 34 29 30 58 88 3 2 2 4 7 4 14 15 13 4 0.Validation du modèle 80 De façon générale.03. alors le point à l’étude est considéré comme influent.04 0. Tableau 14 – Points influents – modèle (20) Obs. il est alors préférable de refaire l’analyse sans ce point.576 134 428.53 76 089.583 0. LeGuen (CNRS-CES-MATISSE-UMR8174) (2009).50 213 777. Figure 42 – Distances de Cook– modèle (20) Le tableau 14 présente les observations influentes au sens de Cook et le coût moyen Sτ. Pour obtenir des conclusions robustes.15 44 295. nous utilisons une limite plus « sévère » de 4/(n-p-1) préconisée par certains auteurs60.43 Dr 0. Dans le test.50 68 338. une valeur supérieure à un est suspecte.34 47 336.49 108 499.53 0.moy observé dans leur intervalle de temps opérationnel depuis t = 1.30 236 510. Il convient alors d’analyser les raisons de son influence (erreur de mesure. M.10 0. « Premier pas en régression linéaire avec SAS ». On calcule les distances de Cook à partir des estimations de φ .…).00 222 998. 147 141 i 15 14 j 3 1 τ 0.08 0.478 0. sept points ressortent comme influents.994 0. µ r .022 Sr 39 410. Comme la distance de Cook est normée. et V (µ r ) = µ r2 .

0364 -1 = -8.0148 0.75% sur I261. Mis à part quatre observations en anomalie63.0138 Estimateurs 10. Ces observations correspondent aux quatre premières valeurs atypiques mentionnées en gras dans le tableau 13 Ces observations visionnables à la figure 43 correspondent aux quatre premières valeurs atypiques mentionnées dans le tableau 13.9225 0. les conclusions qui en sont issues peuvent devenir vides de sens. Tableau 15 – Modèle (20) – ajustement sans les points influents Paramètres ξs 0. on constate que les points sont alignés autour de la droite passant par les 1er et 3e quartiles.1749 -0. Notons que si nous extrayons les sept points influents de l’échantillon d’ajustement.70% et e-0.2063 . a priori centrés. Des points aberrants du tableau 13. to • les taux annuels de surinflation sont révisés à 3. Ces observations apparaissent en gras dans le tableau 14. Autrement dit.0486 -4 3. Les résidus.1780 0.1930 < 10 -1 to ξ1 to ξ2 to ξ3 ξ1c. seules deux observations sont considérées influentes.0364 AIC = 46. nous y maintenons les points atypiques non influents62 faute de pouvoir justifier de leur retrait.0004 ξ1c.3 0.75%. Les résultats obtenus en soustrayant de l’échantillon d’ajustement les sept observations influentes sont présentés au tableau 15. Ce test utilisé dans la sélection des variables explicatives et la comparaison des modèles fait l’hypothèse que les résidus de déviance ajustés sont issus de distributions normales. Il s’agit essentiellement des quatre points atypiques soulignés à la figure 43.8.1281 0. passent par le point (0.1281+0.0).8947 Consécutivement au retrait des sept points influents. Nous testons la normalité des erreurs à partir du QQ-plot des résidus.2274 Ecart type P-value 1.0364 – 1 = 3.8 à -9.5420 < 10 -4 -9.1639 2.φ = 4.70% sur les intervalles de temps opérationnel I1 et I3 et à . Si tel n’est pas le cas. . il est possible de valider l’hypothèse de normalité. 2 0.0434 0. 61 62 63 e0. la plus forte correction des paramètres du modèle s’opère sur l’estimation des coûts moyens de fort temps opérationnel. On constate une amélioration logique du critère AIC. 2 0.Validation du modèle 81 Les points influents détectés correspondent à des observations dont les valeurs sont anormalement élevées compte tenu du temps réel et du temps opérationnel qui leur sont associés. on observe que : • la correction la plus sensible intervient sur le paramètre ξ3 qui passe de -6. Le test sur la validité de la déviance Dans la construction du modèle. nous utilisons essentiellement le test de la déviance comme outil de diagnostic.1 0.0362 0.28. Cette correction est liée à la soustraction de l’échantillon d’ajustement des observations n°29. 30 et 58.1528 0. IV.0437 < 10 -4 ξ 2c.9302 < 10 -4 0. Dans ce cas.0004 ξ1c.2843 1.

00 1.53 1.28 1.10 0.73 1.03 1.60 1. 64 Les observations annotées d’un exposant « i » et « a » correspondent respectivement à des points influents et à des valeurs atypiques.77 1.05 1.76 1.02 0.94 1.26 9 0.00 3 4 1.23 12.64 0.03 1.24a.28 1.07 2.41i.98 0.15 1.82 0.86 1.21 1.84 2.75 0.15 1.54 1.29 1.60 1.43 1.06 0.30 0.55 2.36i.49 1.59 1.72 1.00 1.44 1.37 1.91 0.60 0.61 0.00 1.28 0.76 10 11 12 13 14 15 a a 2.53a 0.98 0.21 1.89 2.17 0.21 1.a 0.98 0.09 0.88 0.44 1.72 1.12 1.90 0.94 6 0.77 1.29 1.80 0.00 0.53 1.91 0.72 0.01 2. l’analyse a conclut à l’instabilité des cadences de règlements dans le temps. L’analyse des données a aboutit à une conclusion principale.85 1.77 1.68 0.48 1. .78 0.66 0.62a 5.67 0.14 1.26 1.89 0.53 0.31 1.69 1.63 1.85 0.83 2 1.48i 0.49i 0.59 0.04 0.72 0.70 1.65 1.32 2.67 1. Par ailleurs.53 1.17 10.35 0.11 1.21 0.02 0.Validation du modèle 82 Figure 43 – QQ plot des résidus de déviance – modèle (20) V.44i 5 1.65 0.20 0.85 1.i 0.a 0.57 0.90 0.66 0.31 0.70 1.41 1.61 1.27 1.16 1.72 Rappelons la démarche menant à sa constitution.93 0.61 1.58 0.35 0.98 1.84 0.28 0.25 0.48 1.06 1.81 1.19a 6.73 1.06 1. Conclusion : la validation du modèle Le tableau 16 présente les résultats du modèle (20) ajusté après le retrait des points influents : Tableau 16 – Rapports des estimations sur les observations de coûts moyens64 modèle (20) 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1 0.14 0.40i 0.42i 1.72 3. à savoir qu’il existait un lien entre le volume des prestations payées et le nombre des règlements de sinistres.73 0.27 0.24 0.86 0.90 7 1.16 2.56 0.03 1.95 0.13 1.69 0.97 1.81 0.22 8 0.34 1.

Cette méthode nous permet de tenir compte de la dépendance entre les prestations et les nombres de règlements. Au final. nous avons estimé que les coûts moyens déflatés croissaient de 3.60%[ Se reporter aux figures en annexe K. il n’a en revanche pas été possible de justifier la baisse de S et m.75% par an. ces tests ont conduit au retrait de deux points atypiques. Sur ce point.…). Autrement dit. des tests de validation du modèle ont été menés. Ainsi. les résultats de ces tests n’ont permis de remettre en cause ni la qualité globale du modèle. En particulier. Cette baisse est justifiée par celle de la proportion des paiements partiels dans les prestations totales. se stabilisent ensuite pour les valeurs de τ inférieures à 60%. nous choisissons d’utiliser le moins de variables explicatives possibles et modélisons m en fonction de tendances linéaires. trop influents au sens de la distance de Cook. le modèle établit une relation entre l’espérance du coût moyen S et deux variables : le temps opérationnel et le taux de surinflation. Cette opération a eu pour résultat d’accentuer la tendance baissière des coûts moyens les plus élevés (τ > 90%). une interaction a été détectée entre la surinflation des coûts moyens et leur profil. En effet. sauf dans le cas des sinistres réglés entre la 3e et la 5e année65. Cette méthode nous permet de modéliser des classes de coûts moyens plus homogènes.Validation du modèle 83 Ce constat nous a conduit à intégrer deux notions dans la modélisation des prestations : • D’une part. De façon plus générale. il caractérise bien les données étudiées66. les tendances identifiés par le modèle de Zehwirth ont été révisées en segmentant l’analyse en fonction du temps opérationnel. en baisse de 8. Pour plus de robustesse. En fin de partie. définissant la croissance de m audelà de l’inflation générale. les hypothèses sous jacentes au modèle (20) n’ont pu être infirmées sur la base de l’échantillon des coûts moyens étudié. • D’autre part. puis augment jusqu’à τ = 90% pour rebaisser ensuite. nous modélisons les coûts moyens non pas en fonction du temps mais selon l’ordre d’apparition des règlements. l’introduction des paiements partiels permet de justifier la baisse contre intuitive de S au fur et à mesure que τ pour des valeurs inférieures à 20%. nous utilisons une approche par les coûts moyens. Il s’est agit de distinguer la prestation moyenne m d’un sinistre réglé du ratio S de coût moyen par sinistre réglé : Il est naturel d’envisager un lien positif entre m et la durée de règlement des sinistres. 65 66 Ces sinistres sont réglés dans l’intervalle de temps opérationnel [20%. identifié par leur temps opérationnel. Pour les valeurs de τ supérieures à 90%. . Autrement dit. et d’autre part. En ce qui concerne la surinflation. ni la fiabilité des outils statistiques utilisés dans sa conception. Même si il nous est impossible de donner une signification à ce phénomène (sinistres sans suite. nous aboutissons à l’identification de quatre tendances : les coûts moyens baissent avec τ pour les valeurs inférieures à 20%.7% par an à partir de 1987. d’une part aucun problème de spécification n’a pu être décelé. En ce qui concerne le temps opérationnel τ. Nous avons utilisé la notion de paiement partiel. nous substituons dans la modélisation le temps opérationnel τ à l’année de développement j.

les résultats obtenus sont comparés à celui issu de l’application de la formule standard. il ne prévoit pas l’estimation de l’inflation générale qui nécessite de se doter d’un modèle ad hoc. • Le second chapitre est consacré au calcul du risque de provisionnement. Si le modèle intègre le calcul de l’inflation sectorielle contenue dans les prestations futures. nous adaptons la méthode classique du Bootstrap au modèle de provisionnement et calculons le risque ultime. Son obtention requiert de répondre au préalable aux deux points suivants : • Le modèle étudié estime le coût moyen des prestations versées à partir de leurs temps réel et opérationnel. Le premier chapitre est dédié au calcul du Best Estimate de la provision pour sinistres. L’approche de calcul privilégiée est de type simulatoire dans un cadre Bootstrap : • Dans un premier temps.Calcul du Best Estimate des PSAP 84 PARTIE III. • . LA MISE EN ŒUVRE DES CALCULS Il s’agit désormais d’utiliser le modèle de provisionnement défini dans la partie II à deux fins : le calcul du Best Estimate des PSAP et celui du risque de provisionnement. leurs dates restent à estimer. Ensuite. Si les temps opérationnels des futurs règlements sont par définition connus. l’algorithme est adapté au calcul du risque à un an. Enfin.

τ est linéaire en t et τ.τ . incitant à supposer la similitude entre m et S pour les valeurs de τ considérées dans la projection des règlements67. Nij. Il requiert donc de connaître de façon certaine le nombre ultime de sinistres pour chaque survenance. Notre utilisation du modèle requiert donc d’assimiler les coûts moyens aux prestations individuelles. réécrivons la somme des prestations payées en j au titre de i : ν Xij = ∑ν =ij1 Xij N où les Xij . ses projections estiment les coûts moyens futurs et non les prestations futures. Nous rappelons que nous considérons par simplification le nombre ultime de sinistres comme certain.j) : E X ij = mt . Plus précisément. elle reste crédible si mt. le modèle (24) intégrant les paiements partiels aboutit à des estimations de S et m très proches pour les valeurs de τ ≥ 0.τ ne varie pas trop chaque année j. que l’espérance des Xij ne dépend que des valeurs t et ν τ associées au couple (i. I. Nous supposons. nous assimilons les extrapolations de coûts moyens du modèle (20) à des prestations individuelles. En omettant l’existence des paiements partiels.1 Hypothèses et méthode Hypothèses Nous évaluons le Best Estimate des provisions pour sinistres à partir du modèle (20). l’hypothèse est exacte si mt. nous justifions cette hypothèse par les résultats de la partie II. LE CALCUL DU BEST ESTIMATE DES PSAP I. Cette section recense les hypothèses sous jacentes à ce calcul.ν = 1. Cependant. • Nombre ultime des sinistres Le calcul des PSAP passe par l’estimation de la prestation à payer au titre de chaque sinistre restant à régler.Calcul du Best Estimate des PSAP 85 CHAPITRE I. …. • Effet des paiements partiels Le modèle (20) est construit à partir des observations de coûts moyens. En d’autres termes. …. 67 . A cet égard. En particulier. En d’autres termes. pour ν = 1. si τ désigne le temps opérationnel moyen observé durant l’année de développement j. malgré l’incertitude évidente de cette information en date de calcul. Nous avons vu que les deux notions pouvaient diverger dans le cas de paiements partiels importants.τ = S t . Dans notre cas. assimiler le coût moyen S à la prestation individuelle m suppose de considérer négligeable l’effet des paiements partiels sur les coûts moyens. Nij désignent les prestations payées au titre des Nij sinistres réglés. • Espérances des prestations individuelles Dans le calcul des provisions. nous utilisons les estimations de Taylor (2000).2 (se reporter à la figure 35). Cette hypothèse est approximative car les Nij ν ν ( ) sinistres réglés n’ont pas la même espérance.

le calcul en monnaie constante des prestations futures devient trivial. Elle passe par l’approximation d’un lien entre t et τ à partir d’une fonction continue H telle que t = H(τ). le calcul du Best Estimate dans le cadre du modèle (20) requiert d’estimer la date des règlements futurs.Calcul du Best Estimate des PSAP • 86 Indépendance des sinistres Supposons que les Nij sinistres soient indépendants et de même espérance mt.τ  Nij  Dans le calcul du Best Estimate. On vérifie sous l’hypothèse d’indépendance des sinistres (1) que   X ij   X ij  ∞ N ij = k  E (S ij ) = E N ij  E  N ij   = ∑k =0 P (N ij = k ) ⋅ E   k     N ij      (1) = ∑k =0 P (N ij = k ) ⋅ ∞ ∞ 1 k ν ⋅ E ∑ν =1 X ij k 1 k ν ⋅∑ν =1 E X ij k ( ) = ∑k =0 P (N ij = k ) ⋅ ∞ ( ) = mt . ∧ . nous pouvons alors. l’objectif consiste à associer à chaque règlement futur une date H (τ ) fonction du temps opérationnel τ qui lui est associé.τ ⋅ ∑k =0 P (N ij = k ) = mt . Une solution simple à cette problématique est présentée dans la section suivante. Ainsi. Or. ce modèle n’estime pas cette information. 2007).. assimiler les estimations des espérances de coûts moyens issues du modèle (20) avec celles des prestations individuelles. • Meilleures estimations des prestations futures Au travers de l’actualisation et du calcul de la croissance (sur)inflationniste des prestations restant à payer.2 Les étapes de calcul En conformité avec les préconisations de l’ACAM (ACAM. le coût moyen des Nij règlements a pour espérance X  E(Sij ) = E ij  = m t. Une fois la fonction H définie et ses paramètres estimés.τ.τ I. au prix des hypothèses formulées. Si Xij est la somme de Nij sinistres indépendants. la procédure de calcul du Best Estimate comporte trois étapes : l’estimation en monnaie constante des prestations futures le calcul de l’inflation contenue dans ces prestations l’actualisation des prestations à la courbe des taux sans risque.

on néglige l’effet des sinistres futurs sans suite. On désigne par Ni. ωi . date de calcul de la provision. ωi ∧ 1mτ i =1 τ= τi. Ni Ni Ni (1) auxquels on associe les temps réels t i. l’algorithme du score fournit les estimateurs du maximum de vraisemblance (e.0 ) sinistres à régler sont68 τi.m.5 N + 1 . ωi .0 = Ni. j = E Sτi.m.2 = i. j    i. En effet.1 • Inflation future Nous appliquons les conditions d’inflation future aux projections de prestations estimées par le modèle (20). où η = η(ξ. j des ωi = ( Ni − Ni. j 1 ( ) ( ) pour j = 1.v.0 Ni le temps opérationnel du dernier sinistre réglé.ωi . on en déduit les e. nous nous dotons d’un modèle d’inflation ad hoc. j = exp η  τ . 68 69  N i.5 . .5 N − 0 . H τ   des mτi.0 +1  N i. Des τi.0 + 0. on déduit du modèle (20) les meilleures estimations des prestations associées aux règlements futurs69. j )⋅1m τi.0 le nombre de sinistres réglés à cette date parmi les Ni sinistres survenus au titre de la survenance i et par τi. d’estimer l’inflation générale moyenne courant entre chaque date de règlement futur H(τ) et la date de calcul t0.v de l’espérance de la somme des prestations futures associées aux I années de survenance : ∧ ∧ ∧ ∑ ∑ I τ= τi. L . τi.Calcul du Best Estimate des PSAP 87 En effet. Par invariance fonctionnelle du maximum de vraisemblance.L. t i. Les temps opérationnels moyens τi.1 = 1 ⋅  + .1 = N i . Il en résulte un e. on a bien τi.L.m.v. plaçons-nous en t0.0 . j ∧ ∧ ∧ pour j = 1. j     i. ∧ ∧ ∧ mτi. on exprime en monnaie réelle les estimations des prestations futures: ∧ 2 m τ i.5 = Pour j = 1. à partir duquel il est possible au travers d’un indice CP(H(τ)) en base t0.ωi = i . 2  Ni Ni  Ni   En supposant que chaque règlement futur déclenche le paiement d’une prestation. τi. φ) désigne le prédicteur linéaire estimé dans la partie II. j et de l’estimation de H.1. Dans cet objectif. 0 + 0 . j = CP H(τi.L.) du vecteur des paramètres ξ et de φ .0 Ni. A partir de CP(H(τ)).

cette relation est souvent modélisable à partir d’une fonction de répartition exponentielle71. 70 71 Le Best Estimate est calculé hors frais de gestion des sinistres. Comme en témoigne la figure 12.9 )       ∧c ∧c f ( t ) = exp I ⋅ ξ ⋅ ( t − 9 ) + ξ ⋅ t  3   τ∈I 2 2. cette question est reportée tandis que nous nous concentrons sur la méthode d’estimation des paiements futurs exprimés en monnaie constante.1 La projection en monnaie constante des prestations futures La modélisation des prestations Estimer la valeur réelle des prestations futures requiert de se doter d’un modèle d’inflation. Pour le moment. II. . En effet. L’estimation du facteur de surinflation f(t) requiert donc que l’on puisse associer une valeur de temps réel à chaque règlement futur à partir de son temps opérationnel. l’utilisation d’une fonction de type Gamma peut être plus appropriée. II. Dans les premières années.2 − τ ) + ξ3 ⋅ ( τ − 0. Sous les hypothèses présentées.Calcul du Best Estimate des PSAP • Actualisation 88 En conformité avec les préconisations de l’ACAM.6 ) + ξ4 ⋅ ( τ − 0. τ = f ( t ) ⋅ m ∧ ∧1 τ où ∧ to ∧ to  ∧1  ∧ s ∧ to + + + mτ = exp ξ + ξ1 ⋅ ( 0. on peut observer un point d’inflexion de la courbe correspondant à une accélération des règlements.ωi ∑ i =1 τ =τ i . l’estimation du lien entre t et τ peut être effectuée à partir d’une courbe continue. A cet effet. cette quantité est estimée à m t. il est possible d’estimer la prestation moyenne d’un règlement futur à partir du modèle (20). Hors. en négligeant les dépendances éventuelles entre taux d’intérêt et prestations. nous utilisons une courbe déterministe des taux. Cette dernière étape nous permet d’aboutir à l’expression du Best Estimate en t0 de la provision pour sinistres70 : E(R) = R ∧ ∧ (0) =∑ I τ =τ i . Dans ce cas.  H (τ )  (2) où rH(τ ) désigne le taux sans risque d’échéance H(τ) prévalant en t0.τ est connu à partir de l’équation (1). pour un sinistre réglé en t > 17 au temps opérationnel τ.2     (3) L’estimation des prestations espérées futures nécessite la connaissance de leur temps réel et opérationnel.1 ∧   ∧ exp − r ∧ ⋅ H (τ )⋅ 2 mτ . seul le temps opérationnel de la prestation mt.

τ) = − ⋅ ln 1− τ  . il existe deux points de départ : la mesure du temps réel à partir de t = 0 permet d’estimer la surinflation des prestations. l’observation des trajectoires de temps opérationnel observées par survenance permet de considérer raisonnable l’utilisation de la forme exponentielle. . Figure 45 – Trajectoires des temps opérationnels par année de survenance 100% 90% 80% 70% 60% 1979 1980 1981 1982 1983 1984 1985 1986 50% 40% 30% 20% 10% 0% 1 2 3 4 5 6 7 8 J 9 10 11 12 13 14 15 1987 1988 1989 1990 1991 1992 1993 1994 1995 τ Wright suggère la relation suivante entre temps et temps opérationnel72 : 1 1− τ  t − t ref = H(τref . Dans le calcul des coûts moyens. Figure 44 – Liaison type entre temps réel et opérationnel A ce sujet. 72 L’expression de H(to . celle effectuée à partir de t0 permet le calcul de leur croissance inflationniste depuis la date de calcul des provisions. et τref le temps opérationnel qui lui est associé. c  ref  (4) où tref désigne le point de départ de comptage du temps réel. τ) est justifiée en annexe M.Calcul du Best Estimate des PSAP 89 La figure 44 présente une courbe typique.

Dans ce contexte.28 0.31 0.24 0.85 2.5 : 0.90 2. Faute d’observations sur les deux dernières survenances pour pouvoir estimer tm.25 0.5) sont réglés au temps réel médian tm défini par 0 .18 2.55 2.46 2.5 = 1 − e − c⋅ t m ⇔c= ln( 2 ) .31 0. τ ) ⋅ (Iτ∈I 2 ⋅ ξ2.27 0.28 0.54 2. que l’âge moyen des sinistres réglés la jème année de développement est approximativement de j – 1 années. Les temps opérationnels moyens en fin de 3e et 4e année de développement sont de 37. Ce phénomène est directement observable depuis le triangle des temps opérationnels. Tableau 17 – Estimation par survenance du lien exponentiel entre temps réel et opérationnel I 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 tm 2.25 0.33 2. .18 2.21 0.70 2. Wright propose une façon aisée de déterminer la meilleure estimation du paramètre c. tm (6) La solution consiste à estimer la valeur de tm à partir de l’observation du triangle des temps opérationnels.262. nous leur attribuons la courbe d’écoulement des règlements de la survenance 1993 (i = 14).27 0.27 0.5 − 0.5608 − 0.65 années. c c 1 (5) II.46 2. il s’agit de remarquer pour j > 1.23 0. De ce fait.31 0. soit tm ≅ 2.69 3.25 0.Calcul du Best Estimate des PSAP 90 L’expression en monnaie constante des prestations futures devient m t.46 2. L’estimation des écoulements de sinistres par survenance est présentée en annexe M. Comme les années d’origine sont des années de survenance.2 L’application numérique Dans le cas où il existe un lien de type exponentiel entre t et τ.5% et 56.18 ci 0. l’utilisation d’un unique coefficient c pour l’ensemble des survenances peut donc apparaître inadéquate. nous privilégions une solution simple consistant à estimer un temps médian tm par année de survenance selon la méthode qui vient d’être présentée.5 0. on en déduit la valeur de c = ln(2)/2.18 2.08%.375 = .74 2. Il s’agit de remarquer que 50% des sinistres (τ = 0.2 + ξ3 )]⋅ m τ = mτ .50 2.20 3.65 = 0. On rappelle que le recours au temps opérationnel a été motivé par l’instabilité des cadences de règlements.31 La baisse de tm dans le temps témoigne de l’accélération des règlements sur les trois premières années de développement.28 0.20 0. Les coefficients estimés sont présentés au tableau 17. On estime par interpolation linéaire la valeur médiane tm pour laquelle τ = 0. 3 − tm tm − 2 A partir de l’équation (6).τ = exp[H( 0.

ci (3) 0 0 12 1 5 11 13 22 40 62 81 91 138 208 332 430 575 2 021 0 0 0 0 0 0 0 0 1 1 3 8 15 26 36 66 243 399 0 0 12 1 5 11 13 22 41 63 84 99 153 234 368 496 818 2 420 0 0 0 263 530 537 194 1 025 765 1 266 194 2 384 886 3 630 645 4 939 162 8 607 300 14 281 792 20 008 266 33 439 775 36 280 466 40 514 274 49 070 926 216 250 173 0 0 1 307 011 100 982 530 469 1 192 932 1 420 650 2 466 009 4 908 134 8 041 863 11 446 354 14 181 623 22 222 160 31 973 307 42 062 078 45 976 992 58 158 445 245 989 010 0 0 1 359 150 101 318 526 503 1 180 404 1 441 796 2 495 436 4 923 057 8 002 984 11 337 042 14 105 465 22 007 342 31 110 884 40 728 564 44 298 879 55 901 796 239 520 620 Par ailleurs. la méthode suivie modélise implicitement les facteurs de queue. Par définition. A l’inverse. Ensuite. rappelons-nous avoir observé en début de partie II que le calcul par Chain Ladder conduisait à des résultats très différents selon la profondeur de l’historique pris en compte. on estime au titre de la survenance 1981 (i=3) une charge de 1.3 millions de dollars relative à 12 sinistres déclarés et dont les règlements interviennent jusqu’à la 28ème année de développement. la connaissance des temps réels et opérationnels des sinistres futurs permet d’estimer le montant des prestations à partir de l’équation (5). Les résultats obtenus ici conduisent à une augmentation de 11% de la charge estimée par Chain Ladder en intégrant l’ensemble des survenances dans le calcul (colonne 1). On note que l’application d’une seule loi d’écoulement (colonne 2) conduit à des résultats assez différents de ceux issus de l’utilisation d’une cadence par survenance (colonne 3). Une fois le paramètre c calibré par survenance à partir de l’équation (6) et les temps opérationnels des prestations futures estimés à partir de l’équation (1). Les résultats sont présentés au tableau 18. . on estime les temps réels qui leur sont associés en fonction de l’équation (4). On en rappelle la méthode de calcul. A cet égard. la méthode Chain Ladder suppose que le risque des trois premières survenances est totalement écoulé. Tableau 18 – Estimation des prestations restant à payer en dollar 1995 i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Nombres de sinistres en cours Déclarés IBNR Total Somme des prestations futures Chain Ladder (1) GLM – c = 0.Calcul du Best Estimate des PSAP 91 L’estimation de la somme des prestations restant à payer est effectuée selon les deux approches : en tenant compte d’un coefficient unique c et à partir d’un coefficient ci par survenance. La seule remarque évidente traite des facteurs de queue. La comparaison des deux résultats n’est pas aisée.262 (2) GLM .

(8) où ε est une variable de loi normale centrée réduite et ∆t le pas de discrétisation. Il s’agit donc d’estimer les paramètres du modèle à partir du processus discrétisé et non à partir du modèle continu. on peut utiliser : • Le schéma d’Euler73 ∆it = it + ∆t − it = β ⋅ (η − it )∆t + εσ ⋅ ∆t ⇔ it + ∆t = β ∆t ⋅ η + (1 − β ∆t ) ⋅ it + εσ ⋅ ∆t . L’estimation économétrique de ce type d’équation est le plus souvent rendue difficile si comme dans la majorité des cas. on peut citer les travaux de Kaufmann (2001). on ne dispose que d’observations discrètes. L’équation (8) définit le taux d’inflation comme une moyenne pondérée du taux de la période précédente et du taux moyen de long terme. La variation du processus de Wiener Wt est distribuée selon une loi normale standard. convergence dont la vitesse dépend du coefficient β > 0. Dans le cadre des travaux actuariels. la mise en œuvre de ce processus nécessite dans la pratique sa discrétisation. • La solution exacte Gouriéroux et al. De nombreux modèles ont été proposés dans la littérature pour décrire l’inflation. Le deuxième terme de l’équation représente l’incertitude lié au processus. L’inflation future III.1 Le modèle d’inflation Estimer la valeur réelle des prestations futures requiert de se doter d’un modèle d’inflation. Ce phénomène est modélisé par la partie déterministe ou drift de l’équation. Par exemple. Ce mécanisme assure la convergence à terme de it vers η. (1993) montrent qu’il existe une solution explicite74 à l’équation (7).Calcul du Best Estimate des PSAP 92 III. les auteurs supposent que le taux d’inflation it suit un processus d’Ornstein-Uhlenbeck basé sur l’équation différentielle stochastique dit = β ⋅ (η − it ) ⋅ dt + σ ⋅ dWt . Pour discrétiser l’équation (7). (7) La dynamique décrite par l’équation (7) est caractéristique des modèles dits de « retour vers la moyenne ». se reporter par exemple au chapitre 5 de Planchet et al. . de Wilkie (1995) ou encore d’Ahlgrim et al (2001) dont nous nous inspirons. Le cheminement à la solution exacte est rappelé en annexe O. Cette approximation est d’autant plus fine que le pas de discrétisation est petit. si le niveau courant it de l’inflation est inférieur à sa moyenne de long terme η. Ainsi. Dans leur article. le drift devient positif. on a i t + ∆t = i t ⋅ e −β ∆t + η ⋅ (1 − e − β ∆t )+ σ 1− e 2β −2β ∆t ⋅ε (9) 73 74 Pour une présentation du schéma d’Euler. tandis que le coefficient de diffusion σ détermine l’amplitude de la volatilité du processus. (2005).

 σ2 ⋅ 1 − e − 2 βt V (it ) = 2β  ( ) ( ) . Les MCO donne des estimateurs sans biais de a. la relation entre l’équation (10) et les paramètres de l’équation (9) est donnée par a=e − β ∆t . on est donc conduit à considérer une relation linéaire autorégressive du type i t + ∆t = a ⋅ i t + b + ε . Les deux méthodes aboutissent aux mêmes résultats. L’estimation des paramètres a. où Y est le vecteur des taux d’inflation et X celui des taux décalés d’un pas. b et σε peut s’effectuer en recourant soit à la méthode des MCO. Dans le cas de la régression à laquelle nous avons recours. d’espérance et de variance  E (it ) = i0 ⋅ e − βt + η ⋅ 1 − e − βt  .Calcul du Best Estimate des PSAP 93 Selon les deux méthodes. σ = σε⋅ − 2 ⋅ . il est alors possible de projeter l’inflation future et de déduire la trajectoire moyenne des taux d’inflation à utiliser dans le calcul du Best Estimate. on peut montrer par le développement d’Itô-Taylor que l’équation (7) définit chaque variable it comme gaussienne. σε = σ ⋅ 1− e 2β −2β ∆t . En effet. b = η ⋅ (1 − e −β ∆t ). étant donné i0 le taux d’inflation observé en t0. (10) Dans le cas de la solution exacte. a = y − b⋅ x. σε = 2 n−2 (x − x ) m m 2 (11) ∑ t =1 t ∧ ∧ ∧ où ε t = y t −  a⋅ x t + b      A partir des estimations des coefficients de l’équation (11). b et σε dont on rappelle l’expression : ∧ ∧   ∑t =1  εt − ε  ∧ ∧ ∧2 ( y t − y )( x t − x ) ∧ ∑   . on déduit celles des paramètres du modèle continu : ∧ ∧ ln a ∧ b ln β β=− . soit à celle du maximum de vraisemblance. on est conduit à considérer une équation du type Y = a⋅X + b+ε. b = t =1 m . η= . ∧ ∧ ∆t  2 1− a ∆t ⋅  1 − β      ∧ ∧ ∧ ∧ Etant donné le taux d’inflation actuel it et les paramètres estimés du processus.

.. Tout comme Ahlgrim et al. 75 76 Nous rappelons que les données utilisées sont exprimées en dollars américains de 1995. nous estimons les paramètres β et η à partir des indices des prix à la consommation produits par le Bureau des Statistiques du Travail américain76. III. CUSR0000SA0) et le descriptif de sa construction sont disponibles sur www. En ce sens.2 Le calibrage des paramètres En nous plaçant en Septembre 2009. On y observe clairement une rupture à partir de 1983. nous considérons comme virtuel le portefeuille utilisé dans la construction du modèle de provisionnement. La série désaisonnalisée « Consumer Price Index – All Urban Consumers » (ref. il s’agirait d’utiliser un modèle plus ambitieux incorporant les contraintes macro-économiques pesant sur l’inflation (chômage. lien entre taux d’intérêt et taux d’inflation…). ils préconisent d’opérer une régression annuelle sur les indices. Afin de limiter ce phénomène. Mais si la production de valeurs négatives peut être considérée comme problématique dans un contexte de simulation de taux d’intérêt.bls. Les taux annuels d’inflation calculés à partir des indices des prix de septembre 1913 à septembre 2009 sont présentés à la figure 46. • Quant aux trajectoires de taux simulées : On rappelle que le processus d’Ornstein-Uhlenbeck n’exclut pas les valeurs négatives ou nulles. elle est en revanche nécessaire dans le cas de l’inflation. Pour plus de réalisme.Calcul du Best Estimate des PSAP 94 En résumé. Cette caractéristique prend effet dans le calcul du risque de provision. le choix de ce modèle d’inflation est avant tout motivé par sa facilité de mise en œuvre. En témoignent les trajectoires des taux d’inflation présentées dans la section suivante. au moment d’estimer l’impact d’un choc d’inflation sur la courbe des taux à un an. Selon les auteurs. Rappelons pour finir que l’utilisation d’un processus Ornstein-Uhlenbeck influe sur la trajectoire des taux d’inflation à au moins deux niveaux : • En ce qui concerne la trajectoire moyenne utilisée dans le calcul du Best Estimate : On rappelle que le modèle de Vasicek stabilise la queue de la courbe des taux d’inflation. Cette caractéristique n’apparaît a priori pas justifiable économiquement. comme l’ensemble des modèles de retour vers la moyenne. l’erreur de mesure courante sur ces indices mensuels peut biaiser l’estimation des paramètres. année de la dernière survenance observée.gov. nous nous affranchissons de toute cohérence de temps avec les données utilisées75 pour projeter l’inflation future. tant en tendance qu’en volatilité. On est conduit à considérer le rapport it = ln CPI t CPI t −1 où CPIt est l’indice des prix à la consommation en t et CPIt-1 celui comptabilisé l’année passée sur le même mois.

38 1. Dans le cas du schéma d’Euler.80 0. on a ∧ ∂ ∧ ∂ ∧ β > β .27% 2. comme en témoignent les résultats des régressions (4) et (5). Notons que ce choix revient également à considérer le taux négatif de 2009 comme atypique. La valeur de ces deux paramètres apparaît stable sur la période 1983 .03 0.13% 3.21% 0.4 et la moyenne à long terme η à 3%. nous stipulons le maintien des caractéristiques du processus observé depuis 1983 sur les 23 années79 de projection nécessaire à l’écoulement total du risque étudié.09% 0.16% 3.27% 3. Nous décidons de calibrer les paramètres du modèle d’inflation à partir des résultats de la régression (5) : nous fixons le paramètre de rappel β à 1.48 -78 1.40 0.37 3.01% 0. 77 79 1914 1933 1952 1971 1990 2009 β Euler Exact Euler ∧ η Exact ∧ σ Exact ∧ σi 4. on a β1 = 1− a contre β 2 = − ∆t ∆t ∧ ∧ 78 Comme a < 0 .49% 3.2008. ∂a 2 ∂a 1 Se reporter au tableau 19. On note en particulier que l’estimation par la solution exacte est davantage sensible aux changements dans l’échantillon d’ajustement77. En ce sens.03% 1. Tableau 19 – Estimations des paramètres du modèle d’inflation Echantillon d’ajustement 1914-2009 1947-2009 1983-2009 1983-1995 1983-2008 (1) (2) (3) (4) (5) La comparaison des résultats issus des régressions (2) et (3) rappelle la rupture de 1983. Comme a < 1.01% ∧ ∧ ∧ ln(a) ∧ pour la solution exacte.Calcul du Best Estimate des PSAP 95 Figure 46 – Taux annuels d’inflation 20% 15% 10% 5% 0% -5% -10% -15% Le tableau 19 présente sur différentes périodes la variance empirique σi des taux annuels d’inflation et les estimations des coefficients du modèle continu selon le schéma d’Euler et par la solution exacte. dès lors qu’il n’est pas incorporé dans l’échantillon d’ajustement.16% 3. caractérisée par une augmentation de la force de rappel et une diminution de la variance empirique des taux annuels.49% 3.63 1.07% 0. On remarque que l’estimation du paramètre β conduit à des résultats très différents selon la méthode retenue.92% 3. le calcul de β est impossible.09% 1. .36% 1.94% 3.52 0.13% 0.75 0.

on simule 1000 trajectoires de taux mensuels annualisés80 sur 20 années à partir du schéma d’Euler pour les paramètres retenus à la section précédente : i 0 = 0 .5% et 99. L’absence de réalisme de ce résultat nous conduit à fixer arbitrairement la valeur de σ. Elle correspond à la valeur de l’écart type des taux mensuels annualisés observés sur la période courant de février 1983 à septembre 2009. Les caractéristiques majeures des trajectoires de taux sont présentées à la figure 47 et au tableau 19. Nous montrons plus en avant que le niveau de 4% retenu aboutit à une distribution des taux simulés cohérente avec les observations effectuées depuis 1983.1. Afin de tester cette plausibilité. par référence à l’écart type empirique . L’objectif ne consiste évidemment pas à vérifier la réplication du passé par le modèle mais plutôt à s’assurer de la plausibilité de ses résultats. On observe par exemple que le niveau retenu des paramètres σ et β entraîne la stabilisation du taux moyen d’inflation autour de son niveau de long terme au bout de trois années. le taux d’inflation mensuel annualisé associé est égal à la quantité (1+im)12 .5% des taux simulés. La valeur de 4% retenue pour ce paramètre est justifiée dans la section suivante. η et σ conduit à des taux d’inflation quasi déterministes de par la petitesse de σ.4 η = 3% σ = 4% 1 ∆t = 12 . La figure 47 présente sur les 20 années de projection les trajectoires moyennes (empirique et selon le modèle continu) et les quantiles à 0. . La valeur du paramètre de diffusion σ est fixée à 4%. le test majeur de validité du modèle est celui de la cohérence des résultats. III.00% -12% 0 40 80 120 mois 160 200 240 80 Si im désigne le taux d’inflation mensuel déterminé par le rapport des indices de prix de deux mois successifs.00% quantile à 99. Figure 47 – Taux d’inflation mensuels sur 20 années 12% 6% 0% -6% espérance moyenne empirique quantile à 1. on observe dans le cas de la solution exacte que l’estimation simultanée des paramètres β.3 La validation du modèle par back testing Au-delà de la précision de la méthode d’estimation des paramètres et de l’actualité de l’échantillon d’ajustement.Calcul du Best Estimate des PSAP 96 D’autre part. Cette section analyse les caractéristiques des trajectoires de taux simulées et les compare avec les valeurs historiques. La valeur d’initialisation i0 correspond au taux mensuel observé en septembre 2009.8 % β = 1 .

Comme l’enseigne son observation.Calcul du Best Estimate des PSAP 97 Les taux it.8% 2. . 13ème et 121ème mois de projection et leurs quantiles à 0.8% 3. De même on observe que les quantiles à 0.5% 1. Figure 48 – Taux mensuels annualisés d’inflation mars 1983 – septembre 2009 21% 15% 9% 3% -3% -9% -15% -21% 03/1983 10/1989 06/1996 02/2003 09/2009 81 Soient les taux CP m m −1 ( CP ) 12 − 1 .5% et à 99.8% et 9%.5% dès le 13ème mois de simulation.6% 0. Tableau 20 – Résultats des 1000 simulations de taux Taux d’inflation it. On désigne par it.9% 2.1% 9. dès lors qu’il existe des observations négatives.0% 1.5% Quantiles t = 121 99.5% des taux mensuels simulés sur le 121ème mois sont respectivement de -5. Par exemple. des valeurs excédant 9% sont observées.H reportées au tableau 20 sont calculées à partir des taux simulés. il est plausible de simuler des valeurs négatives de taux d’inflation.0% 3.H sont reportées pour les 1er.5% et à 99. H H  −1   Les valeurs moyennes des variables it.1 it. le tableau 19 montre que le taux mensuel moyen initialisé à 0. De même.8% passe à 2. Elle présente les taux mensuels annualisés d’inflation81 enregistrés depuis mars 1983.5% 2.12 it.0% La figure 48 permet d’appréhender le réalisme de ces premiers résultats.5% sont indiqués pour le 121ème mois.8% -2.0% 8. où CPm désigne l’indice des prix du mois m.0% 2.7% 2.9% -5.1% 5.120 Moyenne t=1 t = 13 t = 121 0.H le taux moyen géométrique calculé en début de mois t sur un horizon de H mois : 12 1  H =  ∏ (1 + it + j −1 )12   j =1 it .

le cœur de la distribution des simulations apparaît en phase avec celui des valeurs historiques. Le modèle prévoit un taux moyen annuel de 2. Quant à la prévision des taux de long terme. le modèle prévoit une inflation moyenne de 1. A ce sujet. comme dans le cas de l’année 2009. et de 2. en accord avec les paramètres du modèle. niveau proche du taux de long terme. Cependant. sur un horizon court comme de long terme : Sur un horizon annuel. les valeurs simulées sont produites par un modèle mathématique tandis que les valeurs historiques résultent de l’interaction d’une multitude de variables. on s’attend à une moindre incertitude du fait du mécanisme de retour à la moyenne. Le taux moyen passe à 3% pour la 13ème année de simulation. Ce postulat est confirmé par les simulations.9% pour la seconde décennie. Il apparaît clairement que la distribution des taux historiques est plus heurtée que celle des taux simulés. Figure 49 – Taux d’inflation mensuels annualisés historiques et simulations 16% Modèle Historique 12% 8% 4% 0% -9% -5% -1% 3% -21% -17% -13% 7% 11% 15% Taux d'inflation mensuels Ce phénomène provient tout d’abord du fait que l’histogramme résume seulement 294 valeurs historiques contre 1000×240 dans le cas des simulations. Elle juxtapose l’histogramme des taux mensuels annualisés observés de février 1983 à septembre 2009 et celui des valeurs projetées sur les 20 années de simulation. Il apparaît donc naturel d’attribuer une probabilité non nulle à sa survenance. cet évènement reste envisageable.6%. En revanche. . L’observation du tableau 19 permet également de considérer les projections de taux comme raisonnables. La question principale est de savoir si le modèle retranscrit de façon réaliste la distribution de probabilité des taux. On parle de taux historiques leptokurtiques. l’observation de la figure 46 nous montre que l’expérimentation d’une déflation sur une année entière reste un phénomène rare pour les années postérieures à 1983. Ensuite.5% des cas. On remarque également par la moindre amplitude des quantiles des taux simulés sur la seconde décennie que le taux moyen géométrique est moins variable sur les horizons longs. on remarque que la distribution historique présente des queues plus épaisses que celle des taux gaussiens simulées.9% pour la 1ère année de simulation.8% pour les 10 premières années de projection. A ce sujet. Dans 0.Calcul du Best Estimate des PSAP 98 La figure 49 fournit une indication plus précise sur la plausibilité des simulations. les taux annuels simulés sur la 11ème année sont inférieurs à -2.

t ≤ t 0 + 12 }. τ ) ⋅  Iτ∈I2 ⋅ ξ2. où β et η sont les estimations des paramètres du modèle calculées précédemment. A partir de t0.   ∧ pour m ≥ 1. m −1 m Autrement dit. on suppose que la variation dCPt de l’indice des prix CPt se fait au taux espéré i m = i0 ⋅ e ∧ ∧ m −β⋅12 ∧ ∧ −β⋅ m   + η⋅  1 − e 12  . Autrement dit. t0 +  :  12 12    dCPt = CPt ⋅ i m ⋅ dt. Sur le me intervalle.4 La modélisation de l’inflation dans les prestations futures On estime l’évolution de l’inflation à partir des taux simulés.] l’opérateur partie entière. on obtient par récurrence l’indice d’inflation en base t0 : ∧ CP ∧ −t0 = CP H (τ 0 .τ )⋅ exp H( 0. On rappelle que cette équation différentielle s’intègre immédiatement : m t = t 0 + 12 t=t0 + dCP ∫ m −1 CPt t = im 12 m 0 + 12 m t = t 0 + 12 t = t 0 + m −1 12 ∫ dt m ⇔ ln CPt ⇔ CPt ( i )− ln(CP ) = 12 t 0 + m −1 12 im 12 m −1 0 + 12 m 0 + 12 = CPt ⋅e On désigne par d = 12×(t – t0) le nombre de mois écoulés depuis t0 et par [. on a pour t ∈  t 0 + . (12)        d ≥1 j =1    L’intégration de l’indice d’inflation dans (5) définit le coût réel d’un sinistre futur : ∧ ∧c ∧c  ∧ 1 ∧  ∧ m τ = CP H( τ0. En posant CPt0 = 1 .2+ ξ3   ⋅ m τ    (13) . on définit le me intervalle par l’ensemble des valeurs de temps réel m { t t > t 0 + m12−1 .τ ) t ∧ ∧  1 = exp  12   ∧   d  ∧     ∧  ∧   ∧  ∧   ⋅  I ∧ ⋅ ∑ i j +  d − d   ⋅ i  d  +1  .Calcul du Best Estimate des PSAP 99 III. la date de calcul de la provision. on découpe le temps réel en intervalles mensuels.

si les marchés ne recèlent pas l’information complète. En ce qui concerne les flux constitutifs du Best Estimate. les principes MCEV84 en voie de convergence avec le référentiel Solvabilité II autorisent les travaux d’interpolation lorsque.64%. En ce qui concerne l’actualisation des flux. Nous choisissons la courbe des taux zéro coupon publiée par la commission « Indices et références du marché » de l’Institut des Actuaires au 30 Septembre 2009.1(0))…(1+fp-1. .Calcul du Best Estimate des PSAP 100 IV.50% 2.1 à court terme. 82 83 Article 76 de la Directive Européenne (Parlement Européen. On rappelle qu’on peut écrire le taux long rp(0) (à p périodes) comme la moyenne géométrique du taux court r1(0) (à une période) et des taux forward fi. Dans l’actualisation des flux. comme c’est notre cas. 84 Se reporter au principe 14 « Risk Free Rates » du CFO Forum (2009). il s’agit de tenir compte d’un taux sans risque de marché « pertinent82 » pour des instruments de même durée. la reproduction dans le futur de la surinflation passée constitue un choix de modélisation parmi d’autres. « MCEV Principles and Guidance ». L’évaluation du Best Estimate des PSAP On définit le Best Estimate des provisions pour sinistres par la somme actualisée à la courbe des taux sans risque des prestations futures définies par l’équation (13). Insistons une fois encore sur la difficulté d’extrapoler la surinflation des coûts compte tenu des nombreux facteurs juridico socio économiques qui en sont à l’origine. On remarque que le profil ascendant de la courbe présentée à la figure 50 correspond au cas le plus courant d’anticipations haussières des taux spots83. Dans ce contexte. L’indice annuel moyen de surinflation a été estimé dans la partie II : il est constant et égal à 3. Figure 50 – Courbe des taux zéro coupon au 30 septembre 2009 4. A ce sujet.1(0)). où le taux fi. 2009).00% 1 32 63 94 125 156 187 218 249 280 Durée en mois Par ailleurs. avec (1+rp(0))p = (1+r1(0))(1+f1.25% 0.1(0) implicite dans la gamme représente à l’équilibre la valeur anticipée aujourd’hui du taux à une période r1(p) qui prévaudra dans p périodes. elle doit être extrapolée à partir des taux observés. nous utilisons en ce sens les taux zéro coupon interpolés linéairement. majorée d’une prime de liquidité. des maturités sont manquantes. on rappelle que le coût d’un sinistre pour un temps opérationnel donné est supposé évoluer dans le temps selon l’effet conjugué de l’inflation et de la surinflation.

définissant la meilleure estimation de l’inflation future.77 1. on obtient la figure 51.22 1. .33 1.11 1.10 1.66 1. 85 dont le taux évolue selon le modèle de Vasicek ajusté par discrétisation exacte.99 1. Compte tenu des estimations des paramètres β et η. Le Best Estimate des PSAP est constitué de la somme du premier bloc et des blocs en jaune représentatifs des effets de taux.55 1. Figure 51 – Représentation de l’indice moyen de l’évolution des prix85 2. Les résultats sont repris par survenance au tableau 21.Calcul du Best Estimate des PSAP 101 En ce qui concerne l’indice d’inflation en base t0.88 1.Eléments constitutifs du Best Estimate Millions $ 300 250 200 150 100 50 0 Coûts constants surinflation inflation Actualisation Best Estimate Le premier bloc « coûts constants » représente l’estimation de la somme des prestations futures sans prise en compte du phénomène de surinflation.44 1. on estime sa progression moyenne à partir de l’équation (12).00 1 42 83 124 mois 165 206 247 288 L’observation de gauche à droite de la figure 52 permet de mesurer l’impact des effets de taux sur l’estimation de la meilleure estimation des PSAP : Figure 52 .

τ ) (1) (2) (1)×(2) 18. Au tableau 22 sont présentés les estimations des délais de règlement. L’intégration de l’inflation conduit à une hausse globale de 13% des prestations surinflatées.62) de par l’effet conjugué de l’inflation et de la surinflation.62 On remarque que le modèle estime qu’en vingt trois ans (depuis t0).70 1. Tableau 21 – Estimation du Best Estimate Coûts constants i (1) Effets inflationnistes Surinflation (2) Inflation (3) Best Estimate Actualisation (4) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 0 0 1 135 357 91 700 463 543 1 036 494 1 233 804 2 140 711 4 274 419 7 031 223 10 050 287 12 478 001 19 446 332 27 611 500 35 358 147 37 477 628 46 282 277 206 111 422 0 0 1 359 150 101 318 526 503 1 180 404 1 441 796 2 495 436 4 923 057 8 002 984 11 337 042 14 105 465 22 007 342 31 110 884 40 728 564 44 298 879 55 901 796 239 520 620 0 0 0 0 1 588 721 1 328 522 108 415 103 319 582 161 526 305 1 311 354 1 176 215 1 644 261 1 422 876 2 843 281 2 463 043 5 549 461 4 876 338 8 920 753 7 954 372 12 530 107 11 294 968 15 625 621 14 045 563 24 369 346 21 949 841 34 223 881 31 143 842 45 630 397 40 653 351 50 690 620 44 030 834 65 332 964 55 022 806 270 951 344 237 992 195 De façon générale. Cet effet est compensée par celui de l’actualisation des flux.79 1. Tableau 22 – Inflation dans les prestations versées au titre des trois derniers règlements Délai en années Prestation Facteur de surinflation Facteur d’inflation Facteur de croissance en dollar 1995 e H( 0.30 3. et plus que quadruplé (× 4. des facteurs d’inflation. Pour appréhender l’impact des effets de taux sur le niveau des prestations.06 2.33) du fait de la surinflation.21 19. τ )⋅ξc 3 e CPH ( t 0 .98 3.94 2. la méthode retenue allonge sensiblement l’horizon de projection des prestations par rapport à la méthode Chain Ladder.33 1. de surinflation et des prestations des trois derniers sinistres réglés. .Calcul du Best Estimate des PSAP 102 La colonne (1) du tableau 21 correspond au premier bloc « coûts constants » de la figure 52. On remarque que la prise en compte du phénomène de surinflation augmente de 16% la somme des prestations futures.27 180 026 189 735 213 882 1. le coût du dernier sinistre réglé aura plus que doublé (× 2.81 23. il est intéressant d’observer les caractéristiques des derniers sinistres.67 4.

Dans le calcul du risque de provisionnement. Wütrich et M.1 ∑X iτ . il est donc nécessaire d’estimer la distribution du résultat de liquidation des sinistres en cours.Calcul du risque de provisionnement 103 CHAPITRE II. le référentiel prudentiel définit ainsi la charge de capital à immobiliser par le quantile à 99. Si R(0) désigne la provision estimée aujourd’hui et Xiτ. il est par exemple possible à partir d’un de ses quantiles de déterminer un niveau de marge de prudence. Pour mesurer ce risque dit ultime. A ce sujet. Merz (2007) qui. 86 Se reporter par exemple à Mack (1993) ou England et Verrall (1999).  i =1 τ= τ  i. Pour couvrir le risque de provisionnement. L’exposé du problème La problématique du risque d’insuffisance des provisions à couvrir les prestations futures jusqu’à l’écoulement total des sinistres fait l’objet d’une littérature abondante86. fournit une solution analytique de l’erreur quadratique moyenne de prédiction du résultat de liquidation. en extension du modèle stochastique Chain Ladder de Mack (1993). Björkwall et al.ω i i =1 τ = τi. la mesure du risque ultime passe par l’estimation de la distribution de probabilité de la variable R (0 ) −∑ I τi. les méthodes simulatoires constituent l’unique solution. des réponses analytiques existent. la prestation payée au titre du sinistre de temps opérationnel τ et de survenance i.t0 +2−i le nombre de règlements effectués durant cette période au titre de la survenance i et R(1) la provision estimée dans un an. nous privilégions ce type d’approche en l’adaptant à notre modèle de provisionnement.5% de la perte à un an du portefeuille en continuité d’activité. On conçoit donc que l’analyse du risque ultime soit une problématique centrale dans l’étude de la solvabilité à long terme de l’assureur. (2008) décrivent la méthode de calcul de la distribution du résultat à un an dans un cadre Bootstrap. où il n’existe pas d’expression analytique de la distribution. nous nous plaçons aujourd’hui en t0 dans le cadre du modèle de provisionnement spécifié en seconde partie (équation 20). Si I désigne le montant des intérêts distribués durant l’année à venir. qui s’appuie sur une mesure de perte (approche VaR) à horizon d’un an. Notons en particulier l’approche de M. cette problématique ne correspond pas à celle réglementaire de calcul du capital requis. . Toutefois. λi = N i . il s’agit d’estimer la distribution du résultat de liquidation : R (0 )  I τi. Dans certains cas.1   Pour calculer la charge en capital au titre du risque de provisionnement et la combiner avec celles d’autres risques de sorte à évaluer le capital global de solvabilité. LE CALCUL DU RISQUE DE PROVISIONNEMENT I.λ i  + I −  ∑ ∑ Xiτ + R (1)  . Mais dans la plupart des cas tel celui de notre modèle. Une fois la distribution estimée.

II. la notation utilisée dans cette section ne distingue pas les deux notions. on procède au rééchantillonage des résidus d’estimation. i. si les Xiτ sont supposées indépendants. de l’espérance et des paramètres de la loi gamma sont justifiés en annexe P. ∧ II. I . nous introduisons une notation adaptée à sa présentation.1. nous privilégions les résidus de Pearson dont nous rappelons la définition dans le cadre gamma du modèle de provisionnement87 : eiτ = (p) Xiτ − E(Xiτ ) ∧ V(Xiτ ) ∧ = X i τ − mi τ φ ⋅ miτ ∧ ∧ . l’hypothèse fondamentale du calcul de provisionnement dans le cadre de notre modèle repose sur l’assimilation en espérance des coûts moyens et des prestations individuelles. τiωi }. le calcul des résidus de Pearson est relativement peu consommateurs en temps de calcul. 87 L’expression de la variance. Nous considérons les données sous la forme du triangle de liquidation constitué des observations { xiτ .1 II. où ∆ = { i = 1. dès lors qu’on les munit des lois gamma G φ . Ce postulat revient dans la pratique à assimiler les observations de coûts moyens Siτ à des prestations individuelles Xiτ. La technique est basée sur le rééchantillonage des données de l’échantillon selon un tirage aléatoire avec remise. on montre en annexe P que ces résidus sont équidistribués si comme nous le supposons les Xiτ sont de loi gamma. Tout d’abord. … .1 Le calcul du risque à l’ultime La méthode du Bootstrap Notations Avant d’aborder la procédure de calcul. De ce fait. Son utilisation repose sur l’indépendance et l’équidistribution des variables sur lesquelles on effectue le rééchantillonage.i.τ ∈ ∆}. la méthode du Bootstrap désigne une technique consistant à obtenir des informations sur une loi à partir d’un échantillon de celle-ci. … . Deux raisons motivent ce choix. Dans le cadre du Bootstrap. Dans notre modèle. où ∇ désigne le triangle supérieur. on considère les observations du triangle supérieur comme les réalisations de variables aléatoires Xiτ. Ces estimations sont calculées en maximisant la vraisemblance de l’échantillon gamma ∇X = { Xiτ. Comme il l’a été précisé en début de partie.d. L’objectif consiste à estimer la distribution des prestations futures {Xiτ .τ ∈ ∇ }.2 La sélection des résidus Dans le cadre statistique. τ = τi1. Il est donc naturel de penser à rééchantillonner ces observations.1. . φ⋅m . pour i. i.Calcul du risque de provisionnement 104 II.τ ∈ ∇ }. i. Ensuite. Cependant. Nous rappelons que notre modèle donne une estimation miτ de miτ = E(Xiτ) pour chaque Xiτ des ensembles ∆ et ∇. τ ∈∇. ( iτ ) Comme les Xiτ ne sont pas i. ils ne sont pas identiquement 1 1 distribués.

En complément. Cette sous étape permet de prendre en compte le risque de process.3 L’implémentation du Bootstrap La procédure de calcul utilise le triangle des résidus ajustés de Pearson comme les données d’un échantillon. τ ∈∇. i i ∧ ∧ pour i.Calcul du risque de provisionnement 105 En suivant les préconisations d’England et Verrall (1999). on modélise à partir de 2. On en déduit la distribution prédictive des prestations futures et par extension celle du Best Estimate des PSAP. pour i.1. Autrement dit. pa ∗b • Détermination de l’échantillon associé des coûts moyens ∇x ∗τb par i x∗τb = miτ+ e∗τb ⋅ miτ .2 que de celle des résidus. dont on déduit l’estimation du coefficient de dispersion : φ= ∧ 2 2 1 1 ∑ (eipτ ) = n ∑ (eipa ) . τ ∈∇.1. La volatilité des estimations de prestations futures ne dépend jusqu’en 2. Où n et p désignent le nombre d’observations et p le nombre de ses variables explicatives. cette opération a pour conséquence d’augmenter la variance des résidus. le processus se poursuit ainsi : 2. la variabilité des prestations futures dépend de trois facteurs d’incertitude : l’inflation. Il s’agit alors de prendre en compte le risque d’estimation. en affectant peu leur moyenne. Procédure itérative Pour chaque itération b = 1. la date de règlement et le niveau hors inflation de prestation. Comme les résidus de Pearson sont en moyenne proches de zéro. .1. II. τ n−p ∇ ∇ 2. Préliminaires • Estimation des ∇xiτ à partir du modèle de provisionnement et calcul des résidus (pa) associés ∇eiτ .1. B.…. elle ne reflète que l’incertitude liée à la procédure d’estimation. Selon la modélisation retenue.1 : Génération d’un triangle de pseudo-données • Création d’un échantillon de résidus noté ∇eiτ par tirage aléatoire avec remise parmi les ∇eiτ . Cet ajustement doit permettre de corriger le biais dans la comparaison des estimations analytiques et Bootstrap de l’erreur de prédiction : ei(τpa ) = n n − p ⋅ ei(τp ) . 1. nous procédons également à un ajustement global de ces résidus. Ces trois éléments sont supposés indépendants et simulés séparément les uns des autres.1 Calcul des espérances des prestations futures o 2.3 l’incertitude liée à la variabilité intrinsèque des ∆Xiτ.

j = 1.…. on simule les taux d’inflation à partir du modèle d’inflation ajusté au chapitre I : ∧  ∧ 1 β    = η⋅ ⋅ + 1 − . o 2.2 : Simulation de l’inflation future Par le tirage aléatoire de variables gaussiennes88 ε.3 : Simulation des dates de règlement Par le tirage aléatoire de variables uniformes U[0.…. o ∗ 2. t ijb .….4 pour calculer l’espérance des prestations futures.2 : Estimation des paramètres de régression A partir des ∇x∗τb .Calcul du risque de provisionnement 106 o 2.2. utilisés en 2.….τ iωi .4 : Estimation des prestations futures hors inflation ∗ ∗ A partir des paramètres ξ estimés en 2.2.it + ε σ ⋅ .ωi auxquelles on associe par ordre chronologique les temps opérationnels τ i1 . 2.1]. τ ( ) [( ∗b )] pour i = 1.1. j = 1.1.1. ij 88 Les variables uniformes sont simulées à partir de l’algorithme du Tore et les gaussiennes à l’aide de l’algorithme de Gauss-Müller.1.r X∗τb par un tirage aléatoire selon une distribution i i   G  1 . on calcule les prestations futures (hors inflation) prévues par le modèle : ∧ ∗b ∗ m iτ ij = E X i∗bij = exp η ξ . I.ωi.2 Simulation des prestations futures o 2. 1 ∗b  .1 : Simulation des prestations futures hors inflation On simule les réalisations x∗τb de v. . ci pour i = 1. on en déduit par l’équation (12) les indices ∗b ∗ d’inflation CPt ∗b associés aux dates de règlement t ijb . ∧ φ ∧ ∧   φ⋅miτ  o 2.τ ij . I.a.1. on simule les dates de règlement t ij = t 0 − ∗b 1 ln(1 − u ) .L. des t ijb et des τ ij associés.  12  12  12   ∧ it + 1 β ∧ 12 A partir de la trajectoire d’inflation simulée. on détermine les estimateurs du maximum de vraisemblance des i paramètres de régression ξ du modèle.

3 270. Nous estimons les paramètres de régression initiaux (étape 1) et les paramètres de régression bootstrapés (étape 2. 89 La programmation sous SAS de la procédure figure en annexe Q.3 190.3 318.2% 0. skewness). Figure 53 – Histogramme des provisions 1.L.3 382. ) b =1. et après actualisation à la courbe des taux. B sont II. La distribution des provisions est obtenue empiriquement à partir de 10000 simulations. après récupération des paramètres de régression bootstrapés.1) à partir du logiciel SAS89.1% 0.7% 0.3 366. avec une queue de distribution étalée vers la droite. L’étude de l’étalement des queues de distribution se fait à l’aide du coefficient de dissymétrie (en anglais.3 : Calcul d’une réalisation de R On suppose que l’effet de l’actualisation est le même dans les scénarios bootstrap et dans le scénario du Best Estimate.3 Bootstrap LN(19.8% 0.1305) 174.2811 . ∗ ∗b ∆ La fonction de répartition et les quantiles empiriques associés à la suite (R des estimations de la distribution prédictive et des quantiles théoriques de R.Calcul du risque de provisionnement 107 o 2.3 On remarque que la densité empirique de la loi des provisions n’est pas symétrique. En appliquant les indices d’inflation aux prestations futures simulées.0% 0.r 0.5% 0.3 206.3 302.2 sont menés sous tableur Excel. t ijb ij ( ) . 0.3 286.2 L’application numérique Le calcul du risque ultime est mené en deux temps.3 334.3 350.2.6% 0.9% 0.3% 0.3 238.4% 0. . on obtient une réalisation de R : R = ∑ miτ ⋅ CPt∗b ⋅ e ∗b ∗b ij ∧ ∗b ∗ − t ∗b. Elle est présentée à la figure 53 sous la forme d’un histogramme. Les calculs relevant de l’étape 2.0% 158.3 222.3 254.

Que ce soit graphiquement à partir de la figure 53.5% par rapport à la provision Best Estimate. on utilise son estimateur naturel ∧   γ 1 = 1 B ⋅ ∑   R (∗b ) − E(R )   b =1  ∧ B ∧ ∧  var(R )  . avec µ = E(R) et σ = Var(R). on note la proximité entre la loi log-normale calibrée et la distribution empirique des provisions. si γ1 > 0. On remarque aussi la forte proximité entre la moyenne empirique obtenue par Bootstrap et le Best Estimate. soit C0. σ 2 = 1 − e − s ⋅ e 2 (m + s ) .13).     90 . la distribution est symétrique.   ∧ 3 où E ( R ) et var( R ) sont issus de la distribution des R*b. Pour cela. sinon.5 ⋅ s 2 . on calibre les paramètres de R ≈ LN(m. Dans la pratique.50% Skewness Bootstrap 238 435 175 31 260 767 258 096 612 293 243 810 332 531 877 0. consistant à supposer que la distribution des provisions admet une queue de distribution étalée à droite. de sorte à ne pas sous-évaluer le risque de perte mesuré par la VaR. 91 2 2 On rappelle que le skewness d’une loi log-normal est défini par  eσ + 2  ⋅ eσ − 1 .417 Log-normale 258 173 116 293 040 601 330 911 134 0.s2). il s’avère essentiel dans notre cas de tenir compte de cette dissymétrie à droite. La valeur de l’estimateur Bootstrap du skewness présentée au tableau 23 témoigne de la dissymétrie à droite de la distribution des provisions90. µ 2 ( ) On obtient R ≈ LN(19. la distribution présente une queue étalée vers la gauche.396 La charge en capital pour couvrir le risque de provisionnement correspond à l’excédent de la VaR au seuil de 99. où numériquement à partir des quantiles et du skewness91 du tableau 23. on inverse les relations µ = e m +0. Dans la modélisation de la distribution des provisions. Tableau 23 – Résultats Bootstrap Moyenne Ecart type VaR75% VaR95% VaR99. s 2 = ln 1 + σ 2 . la loi log-normale est ainsi souvent privilégiée pour modéliser la distribution des provisions. cette hypothèse est celle adoptée dans la formule standard du risque de provisionnement décrite dans les spécifications techniques du QIS4. la distribution présente une queue étalée vers la droite.Calcul du risque de provisionnement 108 Dans le cadre du Bootstrap. 2 2 2 ( ) soit m = ln(µ ) − 0. A partir des estimateurs Bootstrap de la moyenne et de l’écart type de R. On rappelle que si γ1 = 0.28 . Rappelons que ce résultat correspond à un postulat souvent utilisée en pratique.5 s .995 = 332 531 877 − 237 992 195 = 94 539 682. 0. Par exemple.

tandis que la distribution des prestations de l’année à venir est obtenue en simulant B fois la nouvelle diagonale X* du triangle de liquidation. Dans l’actualisation.12 et réinvestir dans un an à m mois au taux à terme f12. L’estimation R de la provision en t0 est considérée fixe. nous suivons les principes présentés par Björkwall et al (2008). m )12 = (1 + r0(. 92 En désignant par r0. on utilise les taux forward92 déduits de la courbe des taux zéro coupon utilisée dans le calcul du Best Estimate. on rappelle que le taux forward f12. Le calcul du risque à un an III. ∗ Dans le calcul de R .Calcul du risque de provisionnement 109 III. on obtient B valeurs de ∧ (0) ∗ I τ ∗b R +I −∑ i =1 τ =τ i . τ = τi1. Autrement dit. les anticipations sous jacentes à la courbe ne sont pas révisées. …. .m le taux zéro coupon en t0 d’échéance m mois. En ce sens : Les indices d’inflation sont calculés en base t0 à partir de la courbe Best Estimate des taux d’inflation calibrée au chapitre précédent. Pour chaque simulation.τ − R ∗ ∧ (1)∗ ∇X . Chaque élément de X* est égal au coût moyen par année de survenance des prestations simulées sur l’année {Xiτ . Finalement. on recalcule la provision dans un an R ∧ (1)∗ ∧ (0) =R ∧ (1)∗ ∧ (1) (∇X ∪ X ) . De cette façon. soit le triangle de liquidation ∇X des coûts moyens vu en t0.12 12 + m est tel que Autrement dit. le risque de taux n’est pas pris en compte. on obtient B pseudo-triangles constitués du triangle ∇X et de la diagonale X*. En d’autres termes. τ iλi }.m d’échéance m mois dans 12 mois m 12 (1 + f12. placer aujourd’hui sur 12+m mois doit équivaloir à placer aujourd’hui à un an (m=12) au taux r0.1. Il s’agit de procéder à l’estimation de la distribution du Best Estimate à un an tout en conditionnant les calculs à l’information disponible en t0. dont on déduit la distribution du résultat de liquidation des sinistres en cours dans un an.1 Principes Dans le calcul du risque à un an.1 La modification de la méthode du Bootstrap III.λi X i .1 ++r m ) )12 0.m anticipé aujourd’hui. on suppose que l’effet de l’inflation et de l’actualisation sont les mêmes dans les scénarios bootstrap et dans le scénario du Best Estimate.1 ∑ i .

I.m désigne le taux zéro coupon aujourd’hui d’échéances m mois et f12.5 Ni . .1.0 + 0.1]. L . Préliminaires 1.1.…. on associe à chaque sinistre restant à régler une date de règlement t ij = t 0 − ∗b 1 ln(1 − u ) . ci pour i = 1.m le taux forward dans un an d’échéance m mois. m ( ) ) = 1+ r (1 + r ) m 12 0 .0 + λ∗b − 0. où r0. pour i = 1.12 12 + m 12 .2 Algorithme Afin de calculer le risque à un an. on déduit les taux forward dans un an tels que (1 + f 12 .2 Calcul de la courbe des taux à un an De la courbe des taux zéro coupon utilisés dans le calcul du Best Estimate.Calcul du risque de provisionnement 110 III.1 Ajustement du modèle Cette étape fournit les estimations en t0 des paramètres ξ du modèle de provisionnement et du coefficient φ de dispersion. j ∈ [1.1 Simulation des prestations de l’année à venir 2.ωi].1 = N i . le processus se poursuit ainsi : 2.….…. t ∗b∗b 1 iλi ∗ t ijb ≤ t 0 + 1 ∀ j . • On en déduit les dates de règlement des sinistres réglés dans l’année : t i∗b . L . I.1 : Simulation des dates de règlement • Par le tirage aléatoire de variables uniformes U[0.5 i Ni .λi N i . Procédure itérative Pour chaque itération b = 1. l’algorithme du Bootstrap est modifié comme suit : 1. B. 1.12 + m 0 . 2. et les temps opérationnels associés b τ i∗.τ ∗b∗b = i .….

t ijb ).λ i derniers sinistres réglés .2 Génération du pseudo triangle ∇X ∪ X ∗ On ajoute au triangle de liquidation ∇X les éléments de la nouvelle diagonale X* composée des coûts moyens simulées en 2. en leur associant les temps opérationnels τ ∗b des i.1 Calcul des éléments de la nouvelle diagonale X* On calcule par survenance le coût moyen des prestations hors inflation simulées en 2.1. ~ ∗b 2. tijb  . λ∗b . φ    . On note x iτij les i prestations revalorisées.Calcul du risque de provisionnement 111 2.1. on respecte la structure du triangle de liquidation.  ij ij  ij  ij     ij   ij    De cette façon.λi ∑ j =λ∗b ∗b i x i.1. 94 93  ∧s ∧ to + ∧ to  + ∧ to  + ∧c ∧ ∧     Avec η ξ .2.2 Génération du pseudo triangle 2.1.6  + ξ 4 ⋅  τ∗b − 0. on revalorise de l’inflation les prestations x ∗τbij .….…. on simule les réalisations x ∗τb de v. i • Selon la méthode déjà utilisée et à partir d’une trajectoire de taux simulée à l’aide du modèle ad hoc.τ ∗b i.I.   1 ∧ ∧ ∗b φ ⋅miτ ij pour i = 1.…. t ∗b  = ξ + ξ1 ⋅  0.I.2.∗b .3 : X ∗b = i.2.3 Calcul des prestations réelles • A partir des espérances ij ij ∧ ∗b m iτij calculées à l’étape précédente. j = 1. τ      ( ) pour i = 1.τ ijb .a. constitué des coûts moyens calculés à partir des prestations annuelles retraitées de l’inflation par Taylor.2 − τ∗b  + ξ 3 ⋅  τ∗b − 0. j = 1. on calcule les prestations espérées sur l’année : ∧ ∗b miτ ij ∧  ∧  ∧ ∗ ∗  = E X i∗bij = expη  ξ .….τ ij j =1 λ∗b i pour i = 1. 94 .r X ∗τb par un tirage aléatoire selon une distribution i i  1 G ∧ .…. 2.I.2 Calcul des prestations « prévues » hors inflation ∗ ∗ A partir du modèle GLM93 et des couples simulés ( τ ijb . λ∗b .9  + ξ 3⋅ t∗b . i 2.

brutes et nettes d’inflation. Les calculs sont effectués sous Excel. t ∗ b ij ij ( ). .1. la troisième dans le calcul de la provision à un an et la dernière dans celui du résultat de liquidation.1 Ajustement du modèle On met à jour le modèle de provisionnement de l’information de l’année : à partir du ∗ pseudo triangle ∇X ∪ X ∗ . 95 Se reporter au III.4 Calcul du résultat de liquidation des sinistres en cours On obtient une réalisation du résultat de liquidation des sinistres en cours : R +I −∑ ∧ (0) τ ∗b I ∑x i. on ajuste les coefficients de régression ξ du modèle.1.3. où les indices95 d’inflation CPt sont calculés en base t0 à partir de la courbe des taux d’inflation Best Estimate.1 III.f 0. Calcul des prestations de l’année Nous simulons les prestations réglées sur l’année.4 du chapitre précédent pour un rappel sur la construction de l’indice. Les montants inflatés correspondent aux montants « réels » payés sur l’année à venir. la seconde dans celui des coûts moyens constitutifs de la nouvelle diagonale du triangle. Les montants hors inflation sont utilisés dans le calcul des coûts moyens constitutifs de la nouvelle diagonale du triangle.Calcul du risque de provisionnement 112 2. sauf dans le cas du réajustement du modèle au triangle vu à un an qui est mis en œuvre sous SAS.3 de capitaliser les prestations simulées au taux zéro coupon de l’échéance du mois du règlement. 2. Pour des raisons de temps de calcul. on obtient une réalisation de R(1) : R ∧ (1)∗b =∑ ∆ ∧ ∗b m iτ ⋅ CP ∗b ⋅ e t ij − t ∗ b. 2.λ∗b i ~ ∗b i.3 Calcul du résultat de liquidation des sinistres en cours 2.3.3. 2.3 L’application numérique Une itération est constituée de quatre étapes principales: la première consiste dans le calcul des prestations réglées durant l’année.3 Calcul des intérêts Un calcul rigoureux nécessiterait en 2. les intérêts I* sont estimés par le produit de la provision moyenne et du zéro coupon à six mois.3. τ −R ∧ (1)b∗ ∇X i =1 τ= τi. Ils sont utilisés dans le calcul du risque de provision.2 Calcul de la provision dans un an Après actualisation à la courbe des taux forward.

3).1. Figure 55 .1.1.Répartition des prestations de l’année à venir en millions de dollars 10% 9% 8% 7% 6% 5% 4% 3% 2% 1% 0% 31.3).Répartition du nombre des règlements de l’année 10% 9% 8% 7% 6% 5% 4% 3% 2% 1% 0% 565 590 615 640 665 690 715 A chaque itération. on suppose connues les espérances des prestations de l’année. • Calcul avec inflation A chaque itération. A partir de cette trajectoire.2 33.2 41. soit entre t0 et t0+1.1.2 37.2 .0) tirages dans la loi exponentielle de paramètre ci pour lesquels t – t0 ≤ 1.Calcul du risque de provisionnement • 113 Calcul hors inflation La première étape consiste à déterminer le nombre et la date de règlement des sinistres réglés dans l’année à venir.2 43. Leur répartition est présentée en figure 55. Figure 54 . La connaissance des prestations espérées permet de calibrer les lois gamma à partir desquelles on simule hors inflation les prestations de l’année (1ère partie de l’étape 2. Ces espérances sont calculées selon les dates de règlement simulées. le nombre de sinistres réglés dans l’année correspond pour chaque survenance i aux (Ni – Ni. La répartition des nombres de règlements simulés sur l’année est exposée à la figure 54. on simule une trajectoire d’inflation à partir du modèle ad hoc. Cet exercice passe par la simulation des dates de règlement des sinistres restant à régler. Selon la méthode décrite à l’étape 2. on revalorise de l’inflation les prestations simulées dans l’année (2ème partie de l’étape 2. et à partir du modèle de provision utilisé dans le calcul du Best Estimate.2 39.2 35.

95 0.09 0.2 zc.01 0.39 0. On y voit les prestations avec inflation et le nombre des règlements simulés sur l’année.40 0.99 1.Calcul du risque de provisionnement 114 Calcul de la nouvelle diagonale A chacune des B itérations. Elle correspond au 1er des B blocs constitutifs de la table « Diag » du programme SAS présenté en annexe S.1.09 0.00 0. La partie droite du tableau 24 est présentée à titre informatif. variables explicatives.4 z r.32 0.81 0.10 0.39 0.09 0.09 0.1 zc.33 zs r 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 c to to to zr.21 0.05 0. Tableau 24 – Coûts moyens.10 0.00 0.27 0.00 0.40 0.39 0.02 0.99 0.3 r r r r 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 9 9 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 Sr 75 626 0 116 700 100 307 69 230 113 854 89 035 144 748 131 827 143 289 121 211 104 002 51 165 15 411 33 171 ~ ∗1 x i.00 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 230 706 3 0 0 120 381 1 309 280 3 141 370 2 925 975 8 629 624 7 2 951 845 20 2 415 614 18 3 208 227 22 4 559 636 37 6 983 751 66 4 698 745 90 2 071 060 132 7 282 464 217 36 528 678 626 La figure 56 présente les éléments de la diagonale dans le cas de la première simulation : Figure 56 – Nouvelle diagonale du triangle.00 0.1) et des variables explicatives associées96.99 0.31 0.00 0.96 0.69 0.39 0. on forme la matrice des coûts moyens par survenance (étape 2. prestations réelles et nombre de sinistres réglés dans l’année.00 1.3 zr.06 0. A noter qu’on associe à chaque coût moyen le temps opérationnel du dernier sinistre réglé de la survenance.92 0.99 0.36 0.1 zc.1.2.1 zr.87 0. . Elles sont présentées au tableau 12. pour b = 1.59 0.91 0.35 0. pour b = 1 n_simu 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 i 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 t 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 τ 0.00 0.2.09 0.τ λ∗i1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. La matrice est présentée dans la partie gauche du tableau 24 dans le cas de la 1ère simulation.2 zc. Année de développement Survenance 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 1 130 534 126 400 142 922 67 472 61 019 84 688 50 255 43 593 39 386 71 524 46 621 82 650 56 671 129 733 83 020 43 769 33 265 2 94 872 73 450 53 569 47 675 48 791 31 068 29 262 28 110 25 522 20 795 21 575 19 338 38 000 20 162 17 894 17 231 33 171 3 4 5 6 7 74 381 43 125 49 798 119 241 56 186 65 272 94 700 50 724 73 244 101 454 75 969 134 428 26 216 114 488 137 272 90 638 47 452 96 535 150 236 96 981 27 581 54 227 128 117 98 724 132 142 39 669 77 251 102 854 110 995 186 244 33 885 68 338 74 462 76 805 49 374 37 198 50 362 66 960 56 598 170 193 22 933 69 552 48 843 151 003 119 498 27 242 40 475 79 327 94 530 112 488 19 239 68 157 100 487 136 249 125 275 31 394 40 694 121 338 159 643 143 289 24 200 52 006 124 096 121 211 25 597 127 427 104 002 39 411 51 165 15 411 8 132 365 111 192 120 653 72 585 67 005 45 039 113 187 89 717 185 511 107 193 131 827 9 10 11 12 13 14 15 16 133 150 38 841 7 117 64 720 27 769 139 801 101 458 0 161 205 48 120 130 199 25 628 145 965 236 510 222 999 0 98 592 127 478 94 475 44 363 9 557 15 013 17 692 75 626 97 669 89 080 183 468 73 874 213 778 89 698 0 34 724 74 001 198 052 76 832 73 487 116 700 187 164 97 756 157 318 184 301 100 307 81 258 133 414 152 248 69 230 119 489 60 228 113 854 154 857 89 035 144 748 96 Les variables explicatives sont celles définies dans le modèle final de provisionnement ayant servi au calcul du Best Estimate.00 0.2.

. au titre de laquelle l’évènement adverse conduit à réévaluer les provisions. En ce sens.6% 2. Figure 57 – Courbe des taux forward dans un an 4. le risque de taux n’est pas simulé97 tandis que les conditions de taux à un an sont extrapolées à partir des trajectoires moyennes estimées en t0. à partir du modèle réajusté et sous les conditions de taux prévalant dans un an.0% 1 32 63 94 125 156 187 218 249 280 Durée en mois 97 98 Les prestations sont actualisées à la courbe des taux forward à un an déduite de la courbe des zéro coupons prévalant en t0.Celui d’une « période affectée » débutant en fin d’année. La figure 57 superpose la courbe des taux à un an et celle des taux zéro coupon.3% Taux zero coupon Forward 1 an 0.La première étape consiste à intégrer l’information de l’année dans la prévision des prestations futures. Ce calcul constitue l’objet de cette étape.Dans un second temps. A ce titre.Calcul du risque de provisionnement 115 Calcul de la provision à un an Le risque de provision a été présenté comme le résultat de deux effets : . on calcule la provision selon la méthode décrite au chapitre I. illustrant l’anticipation du marché d’une remontée des taux à des niveaux plus habituels. On rappelle que la date t0 correspond au 30/09/2009. . Cette période. on revalorise ces prestations de l’inflation selon les indices en base t0 calculés à partir des taux d’inflation moyens calculée en t0. est simulée dans l’étape précédente. Par ailleurs. La mise en œuvre du calcul de la provision à un an est structurée en deux temps : .Celui d’un évènement adverse impactant le niveau des prestations de l’année. Sur ce dernier point. . On observe un écart important entre les deux courbes. qualifiée de « période de choc ». rappelons que la courbe des taux zéro coupon est vue en pleine période de crise financière98. on réajuste sous SAS le modèle de provision au triangle de liquidation augmenté de la nouvelle diagonale des coûts moyens.

au travers du recalcul des paramètres du modèle de provision. la volatilité de la provision provient de celle des prestations de l’année. Figure 58 – Histogramme de la provision à un an Millions de dollars 1.55) 1. Les intérêts techniques sont calculés à partir du produit du taux zéro coupon à 6 mois et de la demi-somme des provisions d’ouverture et de fermeture. En particulier. on simule la volatilité des prestations futures jusqu’à l’écoulement du risque. nous procédons en deux temps : dans l’actualisation des prestations futures constitutives de la provision à un an. nous continuons d’utiliser les taux zéro coupon avant de recourir aux taux forward à un an.2 millions à 5. circonscrite par une loi normale. permet intuitivement d’anticiper des malis moins importants que dans le cas du risque ultime. l’écart type empirique de la provision passe de 31. Pour mesurer cet effet dans la constitution du résultat de liquidation des sinistres en cours. Dans le calcul du risque à un an. on obtient selon la procédure décrite un montant de prestations inflatées et une provision à un an. 5.0% 0. Ainsi. Or.4% 0. Dans le calcul de la provision à un an.0% 177 181 185 189 193 197 201 205 209 213 217 221 La moindre volatilité de la provision dans le cas du risque à un an résulte des différences de modalité de calcul des deux provisions : Dans le cas du risque ultime. Calcul du résultat de liquidation des sinistres en cours A chaque itération.91 .Calcul du risque de provisionnement 116 La distribution de la provision à un an est présentée à la figure 58.2% PM à un an N(197. De façon générale. le calcul du risque à un an est conditionnel à l’information en t0. on remarque que le moindre étalement vers la droite de la distribution de la provision.8% 0. Ensuite. De ce fait. l’absence de rééchantillonage du triangle qui en découle limite également la volatilité de la provision par rapport à celle obtenue dans le calcul du risque ultime.6% 0. l’utilisation de la courbe des taux forward à un an introduit un changement de méthode significatif par rapport au Best Estimate.5 millions de dollars. on observe une réduction de la volatilité de la provision par rapport à celle obtenue dans le calcul du risque ultime. la variabilité de ces paramètres est limitée par le faible poids des observations de l’année dans l’ensemble des observations constitutives du triangle vu en t0. . dont les flux sont actualisés à la courbe des zéro coupons.2% 0.

La charge en capital au titre du risque de provisionnement correspond à la valeur en risque au seuil de 99. Elles sont présentées aux figures 59 et 60 sous la forme d’un histogramme dans le cas des deux scénarios d’actualisation.0% -23 -19 -15 -11 -7 -3 1 5 9 13 17 Figure 60 – Histogramme de la perte à un an Actualisation à la courbe des taux à un an La mise en parallèle des figures 59 et 60 illustre l’effet du passage au taux forward sur la répartition du résultat de liquidation des sinistres en cours.5% de la distribution. on remarque sur la figure 59 que les simulations aboutissent à une quasi équiprobabilité d’obtenir un boni ou un mali de liquidation sur l’année.5% 0.0% -20 1. .0% 0. si dans le cas du maintien de l’actualisation aux taux zéro coupon. -16 -12 -8 -4 0 4 8 12 16 20 99 74% des simulations aboutissent à un boni sur liquidation.0% 0. En effet. on remarque sur la figure 60 que les scénarios à boni sont largement prépondérants99.Calcul du risque de provisionnement 117 La distribution de la perte à un an est obtenue empiriquement à partir de B = 4000 simulations. Par ailleurs. contre 52% dans le cas de l’actualisation aux taux zéro coupon. Figure 59 – Histogramme de la perte à un an Actualisation à la courbe des taux zéro coupon 1. l’utilisation de la courbe des taux forward atténue également le montant des malis dans les scénarios à mali.5% 0.

6 à 10. le tableau 25 permet de mesurer le poids de chaque survenance dans la formation de la charge en capital. Tableau 25 – Quantile des pertes à un an par survenance au seuil de 99.Calcul du risque de provisionnement 118 Au final.3 millions de dollars par l’actualisation à la courbe des zéros coupons.6 millions en utilisant les taux forward. nous nous trouvons dans ce cas de figure. de réduire la charge en capital de 13. contre 10. du fait de leur indépendance. Autrement dit.5% 292 861 116 297 180 723 258 348 256 843 379 937 556 817 809 591 1 025 561 1 098 905 1 341 864 1 456 258 1 454 498 1 496 474 2 954 847 13 679 825 100 Approximativement parlant. Dans ce dernier cas.5% i 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Var de la perte au seuil 99. la mutualisation des pertes par survenance permet. la VaR n’est une mesure sous additive que si la distribution des pertes est « à peu près » gaussienne. . On remarque également par l’observation du tableau 25 que la somme des VaR des pertes par survenance est inférieure à la VaR du portefeuille. On parle alors de sous additivité de la VaR100. on obtient une charge en capital de 14. Comme le graphique 60 nous l’enseigne.6 millions de dollars.

Var( Z ) = Var  = σ2 = e2(m +s ) ⋅ 1 − e−s . la perte à un an. V   ( ) s2 . En négligeant l’effet de l’actualisation des flux. dépend de deux agrégats : les primes P payées sur la période et la charge S des sinistres sur la période. seuls les montants de deux agrégats sont certains : celui R(0) de la provision Best Estimate d’ouverture. soit E(S – P) = 0.2. le référentiel Solvabilité II définit la charge de capital Cα au titre des risques de prime et de réserve par la Value-at-risk de la perte à un an : C   P[S − P < Cα ] = P Z < 1 + α  = 1 − α . et celui P des primes que l’on suppose connu. On définit la quantité S par la somme des prestations payées X et de la variation de provision ∆R sur la période.Calcul du risque de provisionnement 119 III. on suppose que le risque de perte est nul en espérance. P + R (0) ~ (1) Le modèle de Solvabilité II suppose que le ratio combiné est distribué selon une loi lognormale.5%. est définie en début de période par la variable aléatoire L = S – P. égale à l’excès de la charge des sinistres sur les primes. On désigne par V = R(0) + P le montant de ressources disponible en début de période.2 Le calcul par la formule standard du QIS4 III. d’où E(Z) = 1. Z = . 2 Au seuil de confiance α = 99. avec Z ≈ LN(m. où m = E(lnZ) et s2 = Var(lnZ). Selon le principe d’équivalence actuariel. Selon la notation introduite à la première partie101.1 Les principes de calcul La formule standard du QIS4 traite de façon intégrée les risques de prime et de réserve. s 2 = ln[1 + σ2 ] .2 de la première partie. . Alors. S s’écrit : ~ ~ (1)  X + X1  +  R (1) + R − R (0)  S= 1     4 4  1 2 3 144 244 3 4 4 X ∆R En début de période. la perte d’un portefeuille sur une période donnée. on a par ailleurs E( Z ) = µ = e d’où m=− 2 m+ s 2 2 2 L = 1. disons l’année à venir n+1. V  101 Se reporter au II. et on définit le ratio combiné aléatoire Z tel que L X + R (1) + R = V V ~ (1) X + R (1) + R − 1 = Z − 1.σ). Par définition de la loi log-normale.

En remplaçant m et s par leur expression en fonction de µ et σ. 2009) préconise dans le cas de la branche RC auto corporelle un niveau de volatilité de σ = 12. 1 + σ2 où ρα( σ ) ≅ 3 ⋅ σ .2 L’application numérique Dans le calcul du capital requis. on a    C   φ  ln 1 + α  − m  ⋅ s−1  = 1 − α V      où φ désigne la fonction de répartition de la loi normale standard. le calcul consiste à paramétrer directement dans la fonction ρ(σ) la volatilité de la branche étudiée et à appliquer ce facteur à la provision Best Estimate d’ouverture. on retrouve l’expression de ρα définie dans les spécifications du QIS4 : ρα( σ ) = exp(φ−1(1 − α ) ⋅ ln(1 + σ2 ) ) −1 . A ce sujet.5% (contre 12% lors du QIS4). La seconde étape consiste à agréger ces données pour chaque branche pour définir la mesure de volume globale l’écart type global selon une matrice de corrélation entre branches. le papier consultatif n°71 (CEIOPS.s).2. III. déterminant dans le cas des données étudiées une charge en capital de C 0. la formule standard tient compte de l’agrégation et de la diversification entre les différentes branches. .367 = 87 460 543. • Dans notre cas monobranche où seul le risque de provision est étudié. on peut réécrire cette égalité    Cα   ln Z − m ln 1 + V  − m    = 1− α <  P s s       Comme on suppose lnZ ≈ N(m.Calcul du risque de provisionnement 120 Comme la fonction logarithmique est monotone croissante. pour les risques de primes et de provisions.995 = 237 992 195 × 0. En inversant l’équation. Le calcul est structuré en deux étapes : • La première étape consiste à déterminer les écarts types et les mesures de volume V pour chaque branche. on trouve l’expression de la charge en capital : Cα = V ⋅ [exp(m + s ⋅ φ−1(1 − α ) ) − 1] = ρα ⋅ V .

Calcul du risque de provisionnement 121 III. et celui spécifique à horizon un an conduisant à 10. le tableau 26 récapitule les charges en capital obtenues à partir des différentes méthodes présentées. Dans la présentation du résultat à un an. il est certain que la formule standard a été calibrée de sorte à capturer tant le risque de coût que celui de fréquence sur l’horizon d’un an.3 Synthèse des résultats Pour conclure ce mémoire. A ce sujet. D’un point de vue économique. Tableau 26 – Récapitulatif des charges en capital Risque à l’ultime Risque à un an Bootstrap – zéro coupon Bootstrap – taux forward Formule standard du QIS4 94 539 682 14 311 370 10 679 265 87 460 543 On remarque la grande différence entre le calcul à l’ultime aboutissant à une charge en capital de 94. 2008) préconisent de retenir dans les modèles internes un horizon intermédiaire de 3 à 5 ans dans le calcul du risque de provision Enfin. . De ce fait.6 millions de dollars de capital requis. nous notons dans le cas des données étudiées et compte tenu des méthodes appliquées. En ce sens. certains auteurs (Ohlson et al. que le résultat obtenu par application de la formule standard est davantage comparable au calcul spécifique du risque à l’ultime qu’à celui du risque à un an. nous avons abordé les principales raisons de cet écart d’un point de vue purement méthodologique.6 millions de dollars. il est clair que les provisions constituées au titre des branches longues varient peu en valeur relative car les nouvelles informations ont un poids relatif plus faible par rapport aux branches courtes. il n’est pas rigoureux de rapprocher le résultat de son application avec les calculs spécifiques mis en œuvre dans ce mémoire ne simulant que l’aléa sur les coûts. Notons également que cette différence aurait été encore plus importante si on avait simulé l’aléa portant sur le nombre des sinistres restant à régler dans le calcul du risque ultime.

Sur ce point. Par ailleurs. son utilisation peut être profitable dans le cas des branches longues. A ce sujet. En particulier. Une autre limite résulte de l’estimation purement statistique des prestations restant à payer. comme c’est le cas dans ce mémoire. exposées à de nombreux facteurs perturbateurs de la stabilité des cadences. La plausibilité de cette hypothèse dite « d’invariance de l’ordre ». soit la proportion vue au moment de son règlement des sinistres finalisés de même année de survenance. sans affecter ni l’ordre. un changement dans la répartition des types de sinistres peut constituer une violation importante. à savoir les données agrégées du triangle des prestations payées (déflatées) et des nombres de sinistres réglés. on peut regretter de ne pas avoir disposé des données individuelles. notamment dans les premiers intervalles de temps opérationnel denses en nombres de règlements. le lecteur intéressé pourra se reporter au papier de Taylor (1981) proposant un modèle d’estimation des sinistres restant à régler. Dans le cas des vieux dossiers. dont l’utilisation aurait permis une modélisation plus fine du lien entre le coût moyen et le temps opérationnel. Par exemple. soit directement dans sa structure paramétrique. on suppose que les variations du rythme de règlement des sinistres n’ont pour seule conséquence que de compresser ou d’étendre la durée de règlement des sinistres.122 CONCLUSION Tout au long de ce mémoire. qui biaise les observations de coûts moyens. En effet. En résumé. construit dans le cadre des modèles linéaires généralisés. et malgré la solution proposée par Wright. nous avons observé un lien croissant entre le coût moyen des sinistres et leur ordre de règlement. l’information disponible dans la pratique est souvent celle utilisée dans ce mémoire. Le modèle est également adapté aux branches longues. Autrement dit. Enfin. elle peut être remise en cause de nombreuses façons. La principale caractéristique du modèle est de supposer qu’il existe un lien invariant dans le temps entre le coût moyen d’un sinistre et son temps opérationnel. à savoir le calcul de la meilleure estimation de la provision pour sinistres et celui du risque de provisionnement. dès lors qu’il prévoie la modélisation des facteurs de queue et permet d’intégrer la modélisation de l’inflation. dès lors que l’hypothèse d’invariance de l’ordre est respectée. la méconnaissance du portefeuille ne nous permet pas cette approche. nous avons présenté un modèle de provisionnement de type coût moyen. De ce fait. la proportion des sinistres graves peut croître du fait d’une décision de justice et ainsi augmenter à partir de cette date le coût moyen des sinistres sur des intervalles de temps opérationnel. ni le montant de leurs prestations. il est clair que cette méthode d’évaluation n’est pas en cohérence avec la réalité de l’activité des compagnies qui privilégient l’évaluation dossier par dossier. . il est clair que l’absence de considération de l’aléa sur les nombres de sinistres restant à régler a limité l’écart déjà important entre les charges de capital calculées au titre du risque de provision dans une optique ultime et à un an. remarquons que le calcul de la provision pour sinistres reste largement soumis à la plausibilité des estimations de sinistres survenus et restant à régler. doit évidemment être vérifiée avant d’utiliser le modèle. Dans notre cas. soit à partir d’un modèle dédié. Sur ce point. Par exemple dans l’assurance responsabilité civile automobile. nous avons montré que le modèle présenté peut constituer une solution adaptée en cas d’instabilité de la cadence des règlements. Notons qu’une bonne utilisation du modèle repose également sur la nature des données utilisées. Nous avons montré comment en déduire deux exigences quantitatives de Solvabilité II. Dans le cas des données étudiées. on peut également regretter l’absence de retraitement des données des paiements partiels.

Bayazit D. (2001).. AISAM-ACME (2007). Gorvett R. Groupe Consultatif Actuariel Européen (2008). 213-249. Economica.. Katholieke Universiteit Leuven. (2008).. Schirmacher D. D’Arcy S. 13-16 July 2008.. [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] . (2005). Björkwall S. (1999).P. Turkey. et E.. Casualty Actuarial Society Forum.A.W. CEIOPS (2009). 38th international Astin colloquium. Manchester... Consultation Paper n° 71 : « Draft CEIOPS’Advice for level 2 implementing measures on Solvency II : SCR standard formula. Gardner A. Ahlgrim K. Dhaene J. Dhaene J. Feldblum S. Klett R. « Some comments on QIS 3 ». 31. Modlin C. A Thesis Submitted to the Graduate School of Applied Mathematics of The Middle East Technical University. Kaufmann R..« On the non-life Solvency II model ». Vanduffel S. Thandi N. « Non-parametric and parametric bootstrap techniques for arbitrary age-to-age development factor methods in stochastic claims reserving ».. Ohlsson E. (2008).« Modelling Financial Scenarios : A Framework for the Actuarial Profession ». Verrall R. « Aisam-Acme study on non life long tail liabilities. 25. Insurance : Mathematics and Economics. « Mathématiques de l’assurance non vie – tome I : principes fondamentaux de théorie du risque ». Research report 2008:2.Bibliographie 123 BIBLIOGRAPHIE [1] [2] [3] [4] ACAM (2007). Department of Applied Economics. CEIOPS-CP-71-09. (2004). « Yield Curve Estimation and Prediction with Vasicek Model ». « Can a coherent risk measure be too subadditive ? ». Analytic and bootstrap estimates of prediction errors in claim reserving »... vol. Denuit M. a Casualty Actuarial Society Study Note. second edition ». Laeven R. « Introduction to Dynamic Financial Analysis ». Vol. (2004). Van Weert K (2008). Mathematical Statistics.J. « a Practitioner’s guide to Generalised Linear Models..C. Darkiewicz G. Stockholm University..J.. (2004).. Hössjer O. calibration of non-life underwriting risk ». Reserve risk and risk margin assessment under Solvency II ». Research Report OP 0431. Goovaerts M. Charpentier A. p 281-293. « Rapport du groupe de travail sur le calcul du best estimate en assurance dommages ». Hürlimann W. « Valuation of Best Estimate under Solvency II for Non-life Insurance ». Interim Report.. Master of Science in the Department of Financial Mathematics. (2001). Anderson D. England P. Goovaerts M. Astin Bulletin.

Lauzeningks J.. Sidney Australia. Astin Bulletin 12 (81-100). Assurance – Audit – Actuariat. Mack T. pp. Reid D. NC: SAS Institute Inc. Bulletin français d’actuariat.H. Ohlsson E. SAS Institute Inc. « Résolution législative du Parlement européen du 22 avril 2009 sur la proposition modifiée de directive du Parlement européen et du Conseil sur l’accès aux activités de l’assurance directe et de la réassurance et leur exercice (refonte) ». « Claim Reserves in General Insurance ». Analyse des données et Statistique ». Munich Re Group. (2008). 23. Jacquemin J. indemnisation et inflation ». Journal of the Institute of Actuaries. Astin Colloquium presentation. 105.. Kluwer Academic Publishers. Planchet F. « Loss Reserving.C. May 2004.. N°11. (2005). Consulting Actuaries.R. Corvallis. juin-décembre 2003. (1978). (1993). Taylor G. (2004). 6. 211 – 296...M.. ES Knight & Co. « Modèles Financiers en Assurance – analyses de risque dynamiques ». Manchester. (1981). Version 8. « Distribution-free calculation of the standard error of Chain-ladder reserve estimates ». 3-35. [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] .C.. Cassell D.L.S. Economica.J.« Bootstrap Methodology in Claim Reserving ». Centeno M. Thérond P. Research paper n°113.F. Mac Guire G. Chapter 29. Technip. « Don’t Be Loopy : ReSampling and Simulation the SAS Way ». Saporta (2006).. « Speed of Finalization of claims and claims runoff analysis ». « Mesure du risque de réserve sur un horizon de un an ». SAS Institute Inc. pp. ASTIN Bulletin. « Les préjudices corporels graves en Europe : exemple de l’assurance automobile : responsabilité. The GENMOD Procedure. Cary.. (2008).Bibliographie 124 [15] [16] [17] Lacoume A. Paper 183 – 2007. « The one-year non-life risk ». Pinheiro P. (2003). Taylor G..L. An Actuarial Perspective ». Vol. Taylor G.. Parlement Européen (2009). Planchet F. Center for Applied Maths to Forecasting & Economic Decision. Mémoire I. Insurance and Economic Security. Huebner International Series on Risk. (2000). « Probabilité. Münchener Rück (2007). « Loss reserving with GLMs : a case study ». SAS/STAT® User’s Guide. Andrade e Silva J. 1999. Design Pathways. Taylor Fry Consultant Actuaries. « L’utilisation de méthodes de simulation en assurance – partie 1 : générer des nombres aléatoires ».C.A. (2000). 214-225. Jacquemin J.D.

. Merz M. PCAS 1992. Casualty Actuarial Society Forum. « More on a stochastic asset model for actuarial use ». (1994). 777-964. Preprint.V. 1.D. prediction intervals and risk based capital ». Wilkie A. . Zehnwirth B. (1992). (1995). « Probabilistic development factor models with applications to loss reserve variability. British Actuarial Journal. Zurich.Bibliographie 125 [30] [31] [32] [33] Wright T. Wütrich M. (2007). vol. « Stochastic Claims Reserving When Past Claims Numbers are known ». ETH.. Lysenko N. « Uncertainty in the claims development result in the chain ladder method ».S.

902 2.144 1.179 f7 1.007 1.Triangle des incréments en dollars constants – base 31/12/1995 Survenance 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 J=1 J=2 J=3 J=4 J=5 J=6 J=7 J=8 J=9 J=10 J=11 J=12 J=13 J=14 J=15 3 785 472 4 676 818 5 288 102 2 294 033 3 600 113 3 641 604 2 462 510 2 266 831 2 008 668 1 859 624 2 331 058 2 314 198 2 606 858 2 594 652 3 154 749 2 626 146 2 827 488 f1 10 341 098 9 989 145 8 088 865 9 868 776 7 513 855 7 394 227 5 033 074 5 959 341 3 700 715 5 281 998 3 516 749 4 486 419 3 952 042 5 403 501 4 974 522 5 703 493 f2 1.542 3.920 2.009 1.004 1.410 1.470 1.799 1.291 f6 1.187 1.002 1.529 1.191 1.314 1.912 1.005 1.172 2.298 2.061 f9 1. 3.009 1.061 1.004 1.005 1.077 1.625 1.824 2.342 1.710 1.025 1.018 1.027 1.847 2. 3 derniers ex.014 1.030 1.069 1.089 1.006 f14 1.010 1.003 1.047 1.071 1.014 1.005 1.041 1. 4 derniers ex.103 1.802 5.255 2.096 f8 1.016 1.005 1.113 1.004 1.979 1.036 1.006 1. Triangle des incréments Tableau 27 .184 1.005 f13 1.024 f11 1.756 1.Annexes 126 ANNEXES A.020 1. 5 derniers ex.504 1.355 3.036 f10 1.365 1.313 1.066 1.021 1.864 1.110 1.006 1.005 1.911 8 330 688 8 746 390 12 838 745 10 242 138 8 246 783 9 838 006 6 980 328 6 174 882 5 297 409 3 650 396 5 310 014 4 112 650 8 228 051 6 578 467 7 960 929 7 848 833 10 227 581 11 829 690 13 808 440 9 327 124 9 733 605 7 722 211 7 050 748 6 885 660 7 528 393 6 066 004 6 999 427 7 904 933 15 546 107 2 838 485 8 572 427 7 760 019 8 784 714 8 583 828 6 376 966 6 701 601 8 102 196 6 496 129 5 156 246 10 149 191 11 163 077 9 307 208 3 577 227 5 786 244 6 182 336 5 408 507 4 245 146 4 883 761 7 834 125 6 338 960 7 550 139 5 766 328 9 264 942 10 057 508 1 404 642 3 855 239 4 118 148 2 424 513 4 096 408 11 919 643 5 579 267 6 977 904 5 855 420 6 861 793 5 261 570 1 720 749 1 445 496 3 016 336 1 596 870 3 216 232 4 188 607 3 621 981 4 396 156 5 750 846 2 572 620 1 065 201 1 612 047 1 774 652 2 148 708 2 014 006 4 491 930 1 300 134 3 106 706 3 871 426 155 365 625 563 1 784 693 3 295 949 592 008 1 759 602 3 068 518 903 427 35 583 1 171 794 2 645 293 917 338 1 188 314 943 909 1 370 233 258 878 589 440 266 179 295 496 691 492 921 506 249 919 437 895 38 228 427 555 367 433 419 402 473 020 45 040 358 790 101 458 445 997 159 232 f3 1.132 1.109 1.004 1.844 .128 1.130 18.011 1.077 1.346 1.708 f4 1.021 1.067 1.006 1.205 1.004 1.004 fj f’j Dernier ex 2 derniers ex.020 1.184 1.047 1.009 f12 1.007 1.450 f5 1.029 1.

Triangle des nombres de sinistres réglés Survenance 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 J=1 29 37 37 34 59 43 49 52 51 26 50 28 46 20 38 60 85 J=2 109 136 151 207 154 238 172 212 145 254 163 232 104 268 278 331 J=3 112 134 169 113 299 248 206 166 231 134 276 131 340 257 202 J=4 182 108 88 291 172 126 113 140 99 186 89 172 152 122 J=5 57 169 296 91 67 62 90 121 133 65 101 92 75 J=6 30 79 54 36 43 44 102 112 50 61 68 63 J=7 25 38 30 25 31 64 113 41 49 61 42 J=8 13 13 25 22 48 93 32 49 31 24 J=9 8 10 18 22 58 24 16 26 25 J=10 4 13 14 37 8 18 23 15 J=11 5 9 28 5 6 6 9 J=12 4 23 6 4 9 5 J=13 9 3 4 2 5 J=14 3 2 3 4 J=15 1 2 9 .Annexes 127 B. Triangle des nombres de sinistres réglés Tableau 28 .

.Annexes 128 C.Triangle des nombres de sinistres déclarés et restant à déclarer Survenance 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 J=1 393 517 578 622 660 666 573 582 545 509 589 564 607 674 619 660 660 J=2 151 185 254 206 243 234 266 281 220 266 210 196 203 169 190 161 J=3 25 29 49 39 28 53 62 32 43 49 29 23 29 20 41 J=4 6 17 22 16 12 10 12 27 18 22 17 12 9 12 J=5 4 11 17 3 12 8 5 12 12 15 12 9 7 J=6 5 10 6 7 4 4 7 13 9 4 4 5 J=7 4 8 3 0 4 6 6 6 5 8 9 J=8 1 1 0 1 1 1 5 2 2 0 J=9 2 0 1 0 0 0 1 1 0 J=10 1 0 0 0 0 0 0 0 J=11 0 1 0 0 0 0 1 J=12 0 0 0 0 0 0 J=13 0 0 0 0 0 J=14 0 0 0 0 J=15 0 0 0 Sinistres restant à 102 déclarer 0 0 0 0 0 0 0 0 1 1 3 8 15 26 36 66 243 102 Les estimations des sinistres tardifs restant à déclarer (IBNR) ont été reprises de Taylor (2000). Triangle des nombres de sinistres déclarés et restant à déclarer Tableau 29 . p 28.

3 886.1 903.0 867.7 874.2 886.8 869.00005 1.3 872.9 885.0 872.0 879.3 862.5 902.3 869.2 956.2 886.7 11 592 779 930 894 964 982 938 956.2 903.8 900.1 887.6 874.00023 1.2 956.1 938.8 9 591 778 930 894 964 982 937 956 854 873.8 871.5 885.26626 Calcul par Chain Ladder 3 derniers exercices 6 derniers 1.2 899.3 4 575 748 903 883 943 963 913 922 826 846 845 795 848 875 861.9 901.5 874.9 892.3 877.3 872.2 854.2 897.7 3 569 731 881 867 931 953 901 895 808 824 828 783 839 863 850 851.8 885.5 854.5 869.3 956.5 869.1 14 592 779 930 894 964.3 873.00618 1.6 869.5 816.9 900.3 903.2 887.01125 1.0 887.00160 1.0 866.2 IBNR 0 0 0 0 0 0 0 0 1 1 3 8 15 26 36 66 243 Calcul des coefficients de passage Méthode Historique utilisé Facteurs 1.8 886.3 872.0 902.3 886.2 887.00065 1.1 869.00013 1.00003 1.0 13 592 779 930 894 964 982.1 982.00038 1.6 816.4 815.4 869.4 886.5 900.00806 Calcul à partir du modèle ajusté tout l'historique 1.3 816.2 903.8 7 588 777 929 893 963 981 931 953 852 873 870 814.03656 1.9 900.2 de la partie II).0 964.1 886.7 816.0 982.6 872.1.9 872.0 878.3 854.7 6 584 769 926 893 959 975 925 947 847 865 861 809 861.4 884.9 884.5 899.00002 .7 816.1 938.7 874.5 883.00008 1.5 854.1 956.8 874.9 900.3 8 589 778 929 894 964 982 936 955 854 873 871. 2000) 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1 393 517 578 622 660 666 573 582 545 509 589 564 607 674 619 660 660 2 544 702 832 828 903 900 839 863 765 775 799 760 810 843 809 821 835.7 900.0 887.4 10 592 778 930 894 964 982 937 956 854.01328 1.2 15 592 779 930 894.8 5 579 759 920 886 955 971 918 934 838 861 857 804 855 884. ainsi que la valeur des coefficients obtenus à partir du modèle ajusté : Tableau 29 bis – Extrapolation du nombre des sinistres tardifs (Taylor.8 902.6 898.0 815.Annexes 129 La projection des sinistres tardifs a été reconstituée selon l’approche décrite lors de la présentation des données (II.0 894.2 872.1 887.3 868.7 816.1 872. On y précise les historiques pris en compte dans le calcul des coefficients de passage par Chain Ladder.1 938.4 854.9 12 592 779 930 894 964 982 938.

Annexes 130 D.Triangle des nombres de sinistres déclarés et restant en cours (hors IBNR). Triangle des nombres de sinistres en cours Tableau 30 . Survenance 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 J=1 364 480 541 588 601 623 524 530 494 483 539 536 561 654 581 600 575 J=2 406 529 644 587 690 619 618 599 569 495 586 500 660 555 493 430 J=3 319 424 524 513 419 424 474 465 381 410 339 392 349 318 332 J=4 143 333 458 238 259 308 373 352 300 246 267 232 206 208 J=5 90 175 179 150 204 254 288 243 179 196 178 149 138 J=6 65 106 131 121 165 214 193 144 138 139 114 91 J=7 44 76 104 96 138 156 86 109 94 86 81 J=8 32 64 79 75 91 64 59 62 65 62 J=9 26 54 62 53 33 40 44 37 40 J=10 23 41 48 16 25 22 21 22 J=11 18 33 20 11 19 16 13 J=12 14 10 14 7 10 11 J=13 5 7 10 5 5 J=14 2 5 7 1 J=15 11 14 12 .

7% 31.3% 73.0% 81.1% 93.1% 97.6% 12.9% 89.9% J=10 97.0% 34.4% J=2 33.4% 68.4% 99.7% 99.0% J=14 99.2% 81.4% 22.8% 93.6% 5.9% 62.3% 11.1% 42.5% 94.9% 39.1% 80.5% 91.8% 98.0% 84.0% 35.5% 16.5% 73.1% 54.7% 6.0% .7% 99.1% 6.0% J=8 94.7% 72.5% 88.2% 99.6% J=15 100.7% 22.0% 99.8% 58.6% J=12 98.8% 54.7% 95.0% 69.1% 76.1% 27.6% 72.2% 97.4% 5.6% 95.8% 83.8% 79.1% 86.9% 40.9% 4.4% 94.6% 47.0% 5.0% 4.1% 47.9% 74.4% 57.5% 43.0% 100.9% 30.7% 95.0% 100.5% 98.4% J=5 78.8% 97.7% 4.2% 54.6% J=11 97.1% 97.0% 100.5% J=6 87.9% 92.1% J=3 53.5% J=13 98.4% 4.2% 16.8% 88.7% 12.6% 62.6% 67.0% 72.Annexes 131 E.2% 93.9% 57.6% 12.8% 53.4% 69.1% 93.3% 19.2% 97.0% 3.0% 95.9% 45.6% 4.0% 82.4% 14.0% 83.7% 99.1% 20.2% 85.6% 92.8% 36.6% 98.0% 8.8% 99.6% 96.3% 5.9% 79.4% 86.6% 99.3% 52. Triangle des cadences de règlements Tableau 31 – Cadence des règlements – estimation par la méthode Chain Ladder Survenance 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 J=1 9.1% 79.6% 41.6% 20.1% 89.9% 92.6% 24.5% 17.4% 66.6% 97.8% 21.6% 55.9% 95.0% 100.1% 85.3% 26.8% 99.3% 98.6% 90.1% 33.7% J=4 71.1% 35.8% 87.3% 98.4% 61.7% 55.0% 20.2% 3.0% 99.7% J=9 97.5% 25.6% 15.3% 4.7% 88.2% 96.0% 8.4% 11.3% 39.4% 28.3% J=7 90.3% 88.4% 85.2% 15.6% 90.

48% 93.66% 91.85% 98.90% J=9 95.27% 82.16% 99.49% 99.85% 72.41% 97.43% 31.03% J=5 82.33% 94.31% 22.70% J=11 96.15% 90.21% 97.09% 91.62% 61.92% 56.61% 90.70% 57.36% 99.89% J=15 99.27% 47.15% 85.92% 99.80% 6.89% 89.39% 39.42% 56.11% 94.90% 73.35% 82.08% 47.37% 98.28% 69.67% 87.20% J=10 96.75% 3.53% J=4 72.21% 20.01% 90.97% 53.24% 31.95% 66.41% J=6 87.61% J=12 97.50% 93.40% 91.28% 88.66% 99.Annexes 132 F.25% 99. Triangle des temps opérationnels Tableau 32 – Triangle des temps opérationnel Survenance 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 J=1 4.96% 2.22% 26.04% 84.58% 84.41% 92.49% 78.92% 83.01% 67.65% 90.77% 98.77% 9.94% 47.68% 82.44% 99.22% 4.38% 5.07% 24.52% 44.76% 97.12% 4.44% 92.48% 86.87% 80.99% J=7 91.11% 53.87% 45.22% 5.71% 44.97% 79.29% 2.32% 60.73% 66.00% .20% 96.96% 95.09% 88.58% 95.48% J=14 99.22% 98.96% 35.64% 98.23% 39.16% 85.03% 98.15% 70.57% 59.29% 6.86% 17.40% J=2 23.84% 98.67% 85.08% 76.93% 95.37% 77.96% 98.10% 28.48% J=8 94.49% 58.92% 32.98% 5.43% 5.56% 93.61% 100.73% 3.11% 85.56% 27.10% 98.62% 22.79% 74.00% 73.99% 88.94% 93.90% 4.60% 74.17% 77.62% 23.72% 98.28% 77.98% 3.13% J=3 42.52% 68.33% 77.13% 95.60% 53.41% 38.98% 49.65% 97.76% 97.28% 92.88% J=13 99.61% 94.44% 5.71% 89.00% 82.96% 22.83% 99.07% 96.16% 72.

Triangle des coûts moyens par sinistre réglé Tableau 33 – coûts moyens par nombre de sinistres réglés Survenance 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 J=1 130 534 126 400 142 922 67 472 61 019 84 688 50 255 43 593 39 386 71 524 46 621 82 650 56 671 129 733 83 020 43 769 33 265 J=2 94 872 73 450 53 569 47 675 48 791 31 068 29 262 28 110 25 522 20 795 21 575 19 338 38 000 20 162 17 894 17 231 J=3 74 381 65 272 75 969 90 638 27 581 39 669 33 885 37 198 22 933 27 242 19 239 31 394 24 200 25 597 39 411 J=4 43 125 94 700 134 428 47 452 54 227 77 251 68 338 50 362 69 552 40 475 68 157 40 694 52 006 127 427 J=5 49 798 50 724 26 216 96 535 128 117 102 854 74 462 66 960 48 843 79 327 100 487 121 338 124 096 J=6 119 241 73 244 114 488 150 236 98 724 110 995 76 805 56 598 151 003 94 530 136 249 159 643 J=7 56 186 101 454 137 272 96 981 132 142 186 244 49 374 170 193 119 498 112 488 125 275 J=8 132 365 111 192 120 653 72 585 67 005 45 039 113 187 89 717 185 511 107 193 J=9 133 150 161 205 98 592 97 669 34 724 187 164 81 258 119 489 154 857 J=10 38 841 48 120 127 478 89 080 74 001 97 756 133 414 60 228 J=11 7 117 130 199 94 475 183 468 198 052 157 318 152 248 J=12 64 720 25 628 44 363 73 874 76 832 184 301 J=13 27 769 145 965 9 557 213 778 73 487 J=14 139 801 236 510 15 013 89 698 J=15 101 458 222 999 17 692 .Annexes 133 G.

i.Répéter : ξ n +1 =ξ −H ξ n ( ) n −1 ⋅ s . Comme on recherche x f (x ) = 0 et f (x ) ≅ f (x 0 ) + f ' (x 0 )(x − x 0 ) . Le cheminement de l’algorithme consiste alors à : n n +1 ( ) n −1 1. alors f(xn) tend vers 0 à mesure que n augmente103. 2. La méthode de Newton consiste pour estimer la racine de f(x) = 0 à utiliser un algorithme construit à partir d’une linéarisation de la fonction au voisinage de la solution. n suffisamment grand et x0 suffisamment proche de x . on utilise comme fonction f la dérivée de la logvraisemblance par rapport aux coefficients ξ l avec n n  ξ1 +1 − ξ1    n M  ∂ 2l ξn  0   n ∂l ξ        L   ∂l ξ    2 M M ∂ξ1 ∂ξ p       ∂ξ1   ∂ξ1  M  M    M  O M    =   ≅  M +  M  M M   M   n  n n   M   ∂l ξ   ∂ 2 l ξ ∂ 2l ξ    M  L     ∂ξ     0  p    1 24  ∂ξ p ∂ξ1 M ∂ξ 2  p  4 3  444 24444  1 4 3  n +1 s n  H ξp − ξp   ∂l ξ n +1   ∂ξ1   M  n +1  ∂l ξ  ∂ξ p  ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) La formule itérative s’écrit matriciellement ξ = ξ − H ξ ⋅ s . L’algorithme de Newton Raphson L’algorithme de Newton Raphson généralise le processus de Newton dans le cas multidimensionnel.Annexes H. Pour une optimisation à plusieurs dimensions.Déterminer un vecteur ξ 0 proche de la solution. sur la base du développement de Taylor à l’ordre 1. on propose la récurrence f ' (x n ) = f (x n ) − 0 f (x ) ⇔ x n +1 ≅ x n − ' n x n − x n +1 f (x n ) qui consiste à chaque ne itération à trouver xn+1 désignant la racine de la tangente de f calculé en xn.e x n − x ≤ C x n −1 − x pour C > 0. jusqu’à ξ n +1 − ξ n < ε . 103 2 L’algorithme converge quadratiquement vers une racine x dans son voisinage si f ' ( x ) ≠ 0 . On peut montrer que si le premier terme de l’algorithme x0 est choisi suffisamment proche de la racine. Dans notre cas. . la technique de Newton Raphson conduit à la même formule. où H est la matrice hessienne de la fonction l et s son gradient.

⋅  = −∑ 2  ' r Var (S r ) ⋅ (g (µ r ))   ∂ 2 Ln (ξ . on en déduit : ∂η r g (µ r )  z r .k  ⋅ r ⋅ z r . φ) ∂  m (S r − µ r ) ∂µ r = ⋅ ⋅ z r .g (µ ) ⋅ z k k k r ' r ∂l r (Sr − µ r ) r. φ)   E  ∂ξ ∂ξ  = E − ∑ Var(S ) ⋅ (g ' (µ ))2  s k    r r r  z iτ. S )   ∂Lt( ξ. L’algorithme du score La substitution des éléments de la matrice H par leurs espérances simplifie l’expression analytique de l’algorithme.l ⋅ z r . Les éléments de la matrice hessienne H sont définis par104  ∂ 2 l(s.s  ∂ 2 l(s. s ) de telle sorte que E −  = I n (ξ ) = Z ' ⋅ W (ξ ) ⋅ Z . Reprenons l’expression de ∂l ∂ξ k introduite dans le 2e chapitre de la partie II.2 du chapitre II de la partie II que ∂l ξ. l’algorithme du score s’écrit () ξ t +1   ∂ 2Lt( ξ.2. l ⋅ z r . φ S ∂ξ k ( )= ∑ ∂ξ = ∑ var(S ).k  + ∑   Var (S r ) ∂η r  r ∂ξ s  Var (S r ) ∂η r  (1) Comme E(Sr) = µr.s . ' ∂ξ ∂ξ     ( ) où I n ξ désigne la matrice d’information de Fisher. θ.s ∂ξ s ∂η r ∂ξ s ∂η r Comme ∂µ r 1 = ' . S )  ⋅ = ξ −  E '   ∂ξ   ∂ξ ∂ξ   t −1 = ξ + Z W(ξ t ' ( t −1 ) Z) −1 ⋅ Z W(ξ ' t −1 t −1 ) ∂η (S − µt ) ∂µ t = Z'W(ξ où t t ( t −1 ) Z) −1 ⋅ Z'W(ξ )Y t ∂η (S − µn ) = ηn + ∂η (S − µt ) . Par ailleurs. θ. En utilisant l’expression de ∂l (ξ) ∂ξ et celle de la matrice In. . Y = Zξ + ∂µ ∂µ t t 104 On montre en II. l’espérance du 1er terme de l’équation (1) est nulle. on a ∂ (S r − µ r ) = − ∂µ r ⋅ ∂η r = − ∂µ r ⋅ z r . k . ∂η r  = ∑ (S r − µ r ) ⋅ r ∂ ∂ξ s  1    ∂µ ∂ (S r − µ r ) ⋅  1 ⋅ ∂µ r ⋅ z r .k  ∑ ∂ξ s ∂ξ k ∂ξ s  r =1 Var (S r ).Annexes I.

0 C’est pourquoi une solution permettant d’obtenir une valeur de ξ consiste à appliquer une procédure de moindres carrés ordinaires sur g(s). du vecteur Y et l’obtention d’un nouveau vecteur ξ par la résolution de ce système linéarisé. on considère Y comme un nouveau vecteur de données et W (ξ ) comme une matrice de poids fixés. On reconnaît dans ce système les équations des moindres carrés généralisés associées au modèle Y = Zξ + ε . t t A chaque itération. En ce sens. y(ξ) peut être considéré comme une approximation au 1er ordre de g(s) en µ(ξ). ce qui revient à estimer ξ par vraisemblance en supposant les Sr normaux et indépendants. puisque la rème composante du vecteur Y(ξ ) a pour variance ∧  ∧   dη var η r +  x r − µ r  r    dµ r  2 ∧   '  = g  µ r  ⋅ var(S r )     et parce que les coûts Sr sont supposés indépendants. l’estimation ξ est issue de l’application des moindres carrés t+1 . le vecteur à expliquer Y n’est pas observé : ses valeurs sont calculées à chaque nouvelle valeur de ξ à partir des Sr. on aboutit à ∂η ∂µ (X − µ ) = Z ' W (ξ )−1 (Y − Zξ ) = 0 Cette réécriture conduit à deux commentaires : • L’algorithme des scores peut être décrit en résolvant itérativement ce système d’équations : A chaque itération. En effet. Par l’introduction de Y = η + Z ' W (ξ ) −1 ∂η ∂µ (S − µ ) dans les équations de vraisemblance. D’autre part. où E( ε ) = 0 et Var (ε ) = W (ξ ). la valeur courante de ξ permet le calcul de la matrice des poids W (ξ ) . W (ξ ) correspond bien à la matrice de variance de Y .Annexes On remarque qu’un développement au 1er ordre de la fonction de lien g en µ donne g(S) ≈ g(µ) + g'(µ) ⋅ (S − µ) = Y . • Cette nouvelle expression des équations de vraisemblance permet une interprétation de l’algorithme de type linéaire : A ξ fixé. Le modèle a deux particularités. la matrice W dépend également de ξ . D’une part. généralisés dans le modèle y(ξ ) = Zξ + ε .

φ    ~ ∧ ~ ∧ 2 = × ∑r Sr ⋅  θr − θr  − b θr  + b θr          φ        où θ r = b ' ~ −1 (S r ) et θ r ∧ ~ −1  ∧   ∧  = b '  µ r  . φ S )      . comme l( θ. µ    ∧   = −2 ×  l µ. Comme θ r = b ' S θ − b(θ r ) S b' l(θ. Autrement dit. φ S  − l( S.            Remarque : Dans le cas de la loi normale. φ S)  = d = [re(D) ]2 D  ∑ r ∑ r    L(S. φ S ) = ∑ r 1 1 2 ⋅ n ⋅ ln(2πσ ) . φ x      ∧ désigne la log vraisemblance maximisée du modèle estimé avec ∧ ∧ ∧ t −1 µr = g  Zr ξ  . il s’agit de remarquer que la log-vraisemblance peut être exprimée en fonction des espérances des coûts moyens. φ S ) celle atteinte par le modèle saturé avec µr = Sr ∀ r .     On peut exprimer la déviance comme la somme des carrés des résidus de déviance re(rD) :  ∧  n n ∧  S. φ S )  = 2 ∑  Sr − µr  ⇒ D  S. et l( S. on a + c(S r .Annexes J. Expression de la déviance Pour aboutir à l’expression de la déviance. φ) où l µ. 2 [Sr − µ r ] − 2 2σ on a 2 2 ∧ ∧ ∧ ∧ 1 * − 2 ×  l µ.     La différence des deux log-vraisemblances définit la déviance normalisée ∧ D S. φ) = ∑ r φ r = l(µ. φ S) −1 −1 (µ r ) − b(b ' −1 (µ r )) φ (µ r ) . la déviance correspond à la somme des carrés des résidus d’estimation des MCO. θ r est tel que E S r θ r . φ S )  r =1 r =1   ∧  ~ ∧    ~   ∧  (D) où rer = sgn Sr − µr  d r et d r = 2S r  θ r − θ r  −  b θ r  − b θ r   . µ  = ∑  Sr − µr            σ r        r   . φ S  − l( S. En effet. µ  = −2φ ln L(µ. φ S) = ∑r r r + c(S r . φ = S r .

Evolution des coûts moyens en monnaie constante Figure 61 – Evolution dans le temps des coûts moyens Valeurs basses de temps opérationnel 130 000 91 667 53 333 15 000 1979 1987 1995 année de survenance S10% S20% Figure 62 – Evolution dans le temps des coûts moyens Valeurs intermédiaires de temps opérationnel 130 000 91 667 53 333 15 000 1979 1982 1985 1988 1991 1994 année de survenance S30% S40% S50% S60% Figure 63 – Evolution dans le temps des coûts moyens Valeurs élevées de temps opérationnel 240 000 180 000 120 000 60 000 0 1979 1981 1983 1985 1987 1989 1991 année de survenance S70% S75% S80% S85% S90% S93% S95% S98% S100% .Annexes K.

i. 105 106 Notons que cette relation est également utilisée dans la modélisation des paiements partiels. . En d’autres termes. X Nij . (1) : indépendance entre les nombres et les montants de prestations. on a E( Nij ) = 0 ⋅ P( Nij = 0 ) + 1 ⋅ P( Nij = 1) + L + P( Nij = ∞ ) Au prix de certaines hypothèses106.Annexes L. Ces résultats sont utilisés dans la modélisation des paiements partiels de Wright présentée dans la partie II. en faisant l’hypothèse d’unicité de la loi des Xk. On rappelle que Wright utilise la relation E( Xij ) = E( Nij ) ⋅ E( X1 ) où Xij désigne la somme des prestations de montants X1.d. N Comme N est un entier. payées au titre des Nij règlements effectués l’année j105. Ces modèles probabilistes composent la loi des coûts de sinistres à partir d’une loi de comptage du nombre N de sinistres et d’une loi continue pour les coûts associés X. on a Xij = ∑ v =ij0 X v . Rappel élémentaire de théorie du risque Les résultats rappelés dans cette section concernent les modèles dits de lois composées. (2) : les montants de prestations sont indépendants et i. L . on peut écrire E(Xij ) = E N ij (E(Xij Nij )) = ∑k =0 P( Nij = k ) ⋅ E ∑ν =1 Xν Nij = k ∞ k (1) ( ) = ∑k =0 P( Nij = k ) ⋅ E ∑ν =1 Xν ∞ k ( ) (2) = ∑k =0 P( Nij = k ) ⋅ k ⋅ E( X1 ) ∞ = E( Nij ) ⋅ E( X1 ) où E(Xl) = E(Xk) ∀ k.

on obtient 1 1− τ  t − t 0 = − ⋅ ln  1− τ  . on retrouve l’expression de Wright −c⋅( t − t 0 ) τ = 1 − (1 − τ0 ) ⋅ e . Le temps opérationnel est modélisé à partir d’une fonction de répartition de type exponentielle. de réalisation t associée au temps opérationnel τ. Modélisation des dates de règlements futurs La méthode de Wright (1992) présentée dans cette section est utilisée dans le calcul du Best Estimate et du risque de provision : elle permet d’associer une valeur de temps réel aux temps opérationnels des règlements futurs. En inversant cette relation. où T désigne la variable aléatoire « temps de règlement ».Annexes M. En intégrant par T’ = T – t0. 0 ≤ τ ≤ 1. on suppose la relation τ = F( t ) = T=t T =0 ∫c⋅e − c⋅ T dT . on a  e−c⋅T '  − c⋅( T + t 0 ) − c⋅ t 0 ' τ = ∫c⋅e dT = c ⋅ e  −  c   ' = −t  T ' = −t 0 T 0 T' =t −t 0 T' = t −t 0 . =e − c⋅ t 0 ⋅e   − c⋅ t 0 −e − c⋅( t − t 0 )  = 1 − e− c⋅t 0 ⋅ e − c⋅( t − t 0 )   Comme F( t 0 ) = τ0 = 1 − e −c ⋅ t 0 . Autrement dit. c  0  .

Projection des règlements de sinistres Tableau 34 – Projections des règlements de sinistres Année de survenance Année Calendair 1995 1994 1993 1992 1991 1990 1989 1988 1987 1986 1985 1984 1983 1982 1981 1980 1979 e 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 Total 188 145 112 86 66 51 39 30 23 18 14 11 8 6 5 4 2 3 1 2 1 0 1 0 1 818 114 88 68 52 40 31 24 18 14 11 8 7 4 4 3 2 2 2 1 0 1 0 1 0 0 496 85 65 50 39 30 22 18 14 10 8 6 5 4 3 2 1 2 1 0 1 0 1 0 0 0 368 54 41 32 25 19 14 12 8 7 5 4 3 2 2 1 1 1 1 0 1 0 0 0 1 0 234 35 27 21 16 13 9 8 5 4 4 2 2 2 1 1 1 0 1 0 0 0 1 0 0 0 153 23 17 14 10 8 6 5 4 3 2 1 2 1 0 1 0 1 0 0 0 1 0 0 0 0 99 19 15 12 9 6 6 4 3 2 2 1 1 1 1 0 1 0 0 0 1 0 0 0 0 0 84 15 11 8 7 5 4 3 2 2 1 1 1 1 0 1 0 0 0 1 0 0 0 0 0 0 63 9 8 5 5 3 2 2 2 1 1 1 0 1 0 0 0 1 0 0 0 0 0 0 0 0 41 5 4 3 2 2 1 1 1 1 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 22 3 2 2 1 1 1 1 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 13 3 1 2 1 1 1 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 11 1 1 1 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 5 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 3 2 2 1 1 1 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 12 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 .Annexes N.

=e .e dt + e ⋅ dX t = β ⋅ X t ⋅ e ⋅ dt + e ⋅ ( − β X t ⋅ dt + σ ⋅ dWt ) .Ws (0 ≤ s < t) suit une loi gaussienne d’espérance nulle et de variance (t – s). on trouve l’expression intégrale du processus : i t = i0 ⋅ e Et pour u < t. le processus Wt est un processus gaussien à accroissements indépendants : la quantité Wt . β> 0. Ce résultat découle des propriétés du processus de Wiener dit brownien standard défini par Wt = ε × t . on en déduit ∂t ∂X ∂X 2 dYt = X t ⋅ β .Wt-1) = 0. où Xt = it – η. Autrement dit. + η(1 − e −β( t − u ) )+ σ ⋅ ∫ e t u −β( t −s ) dWs . on a i t = iu ⋅ e −β( t − u ) −β t + η(1 − e −β t )+ σ ⋅ e ∫ e −β t t 0 βs dWs . on a  ∂f 1 ∂ f 2  ∂f dYt =  + ⋅ dX t 2 σ  ⋅ dt + ∂X  ∂t 2 ∂X  2 Comme ∂f β t ∂f βt ∂ f = β ⋅ Xt ⋅ e . 2 = 0. En appliquant le lemme d’îto. soit 0 t 0 −β t −βt βs t t βs βt Xt = x0 ⋅ e +e ⋅ ∫ σ ⋅ e ⋅ dWs . Caractéristiques du processus d’inflation Pour obtenir une formule explicite de it. βt βt βt βt = e ⋅ σ ⋅ dWt Comme Yt = x 0 + ∫ dYs .1) et Cov(Wt. σ> 0). on définit le nouveau processus Xt. avec ε ~ N(0.Xt) = Xteβt. on pose Yt = f(t. 0 En remplaçant Xt par it – η. Cette dernière solution montre que les valeurs possibles de it sont distribuées selon une loi normale standard. on a Yt = x 0 + ∫ σ ⋅ e ⋅ dWs . soit Wt ~ N(0. En introduisant Xt dans l’équation initiale définissant it.Annexes O. Pour résoudre ce processus.t). on voit que Xt est solution de l’équation différentielle stochastique dite de Langevin dX t = −β X t ⋅ dt + σ ⋅ dWt (X0 = x0. .

on a  t −β⋅( t −s )  2 σr ( u. it est gaussien ∀ t et d’espérance µr( u. comme les accroissements dWs sont supposés iid et de variance égale à ds.Annexes Comme dWs est gaussien et d’espérance nulle. t + ∆t ) ⋅ ε = i t ⋅ e−β∆t + η ⋅ (1 − e−β∆t ) + σ 1 − e−2β∆t ⋅ε 2β . En désignant par δ le pas de discrétisation retenu. Ensuite. t ) = iu ⋅ e−β( t − u ) + η ⋅ (1 − e−β( t − u ) ) . t + ∆t ) + σr( t. t ) = V σ ⋅ ∫ e dWs   u  t  2  − 2β⋅( t − s ) = σ ⋅ ∫e ⋅ V( dWs )    u  = σ ⋅∫e 2 u 2 t − 2β⋅( t −s ) ds σ − 2β⋅( t − u ) ) = ⋅ (1 − e 2β La discrétisation de it est alors immédiate. on retrouve l’expression du modèle continu : i t + ∆t = µ r( t.

la densité des coûts moyens Sr est de la forme S θ + ln( − θr ) 1 Sr f (Sr. on a MSr ( t ) = (1 − φ ⋅ m r ⋅ t ) −1 φ On en déduit l’unicité de la fonction génératrice des moments des résidus de Pearson issus du modèle (20).β) : fX( x ) = e −β x ⋅β ⋅ x Γ( α ) α α −1 .β) est M(t) = (1 – t/β)-α. m Comme la fonction génératrice des moments d’une loi Γ(α. comme θr = − m r . on remarque que cette fonction ne dépend pas des mr : −t  t⋅Sr − m2r   φ⋅m r  = e φ E e M (p) ( t ) = E e er      t ⋅S φ ⋅m r r    −1 φ =e −t φ ⋅ M Sr [ t φ ⋅m r ]= e −t φ ⋅ (1 − t ⋅ φ ) 107 En vertu des propriétés d’une loi gamma (ν.λr) on vérifie que E(Sr ) = ν λ r = m r et V(Sr ) = ν λ2 = φ ⋅ m 2 . En particulier. Rappelons tout d’abord l’expression générale de la densité d’une variable gamma de loi Γ(α. φ⋅1 r ) . Par ailleurs. on en déduit par analogie que107 1 Sr ≈ Γ( φ . Equidistribution des résidus gamma de Pearson Il s’agit ici de montrer l’équidistribution des résidus de Pearson issus du modèle (20) dans lequel on suppose les coûts moyens Sr de lois gamma. on retrouve l’équivalence entre les expressions (1) et 1 (2). (1) Dans le cadre des modèles GLM. r r . α = φ et β = − θφr .Annexes P. θr. φ ) = exp r r + φ ln( φ ) − ln(Sr ) − ln(Γ( 1 ))  φ  φ   exp (Srθr )φ ⋅ ( − θr )φ ⋅ ( Sφr )φ ⋅ Sr = 1 Γ( φ ) 1 1 1 ( ) −1 (2) exp( = θr φ S ) ⋅ (− ) Γ( ) r 1 φ 1 θr φ φ ⋅S 1 −1 φ r 1 En posant X = Sr.

000 0.Annexes Q. %macro bootstrap(p=.000 0. N_Obs+1-1.151 0. c1.000 0. ⇒ On attribue un n° aux résidus pour tirage aléatoire V_mu=(res_brut/res_P)**2.000 0.000 0. set work.000 0. d2 et e1). ods listing. Calcul du risque ultime : programmation de la procédure de rééchantillonage La macro SAS reçoit en input la table des coûts moyens « INC » utilisée dans la spécification du modèle.3 zr. Rééchantillonage des résidus de Pearson 2.000 0. ⇒ On calcule V(µ)=µ × φ0. .2. Calcul des résidus de Pearson proc genmod data=inc. Les valeurs de ces paramètres.000 0.227 0. la macro rééchantillonne le triangle des résidus à partir duquel elle forme un pseudo triangle de coûts moyens.363 b3 0.3 Sr r r r Label SAS a1 b1 b2 b3 c1 c2 d1 d2 e1 S Les dix premières lignes de la table « INC » sont présentées ci-dessous.020 0.2.nb_Simu=).063 c1 8 0 0 0 0 0 0 0 0 0 c2 0 0 0 0 0 0 0 0 0 0 d1 0 7 6 0 0 0 0 0 0 0 d2 0 0 0 0 0 0 0 0 0 0 e1 1 2 3 4 5 6 7 8 9 10 S 130534 94872 74381 43125 49798 119241 56186 132365 133150 38841 A chacune des nb_simu itérations.1.1 zr. 2. b3. ⇒ ddl du coefficient d’ajustement des résidus.000 0. output out=residus resraw=res_brut reschi=res_P pred=mu.000 0.1 z r.356 0. b2.000 0.056 0.342 0.4 z r. ⇒ On calcule les résidus de Pearson ajustés run.1 z r.131 0. run.2 zc. %let ddl=%eval(&m-&p). b1.000 0.1 Génération du triangle des résidus de Pearson ajustés data T1(keep= a1 b1-b3 c1 d1-d2 e1 mu V_mu N_obs) T2(keep= res_P_aj).000 0. 1. La correspondance entre les libellés des variables du programme SAS et la notation utilisée dans le mémoire est exposée dans le tableau ci-dessous : c c c to to to Variables explicatives zs zr. d1. N_obs 1 2 3 4 5 6 7 8 9 10 N 29 109 112 182 57 30 25 13 8 4 i j 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 1 10 T 1 2 3 4 5 6 7 8 9 10 a1 1 1 1 1 1 1 1 1 1 1 b1 0.2 zc. elle ajuste le modèle GLMgamma sur le pseudo triangle et récupère les estimations des p paramètres de régression (de label a1.000 b2 0.000 0. stockées dans la table de sortie « Stock_Param » sont ensuite utilisées sous tableur Excel pour simuler les PSAP conformément à la procédure décrite au chapitre II de la troisième partie.1.residus. model S= a1 b1-b3 c1 d1-d2 e1 / dist=g link=log noint .278 0.5. Ensuite.042 0.5 à partir des résidus res_P_aj=res_P*%sysevalf(&m /&ddl)**0.320 0.m=.000 0.000 0.000 0.

run. %if &cpt=1 %then %do. %end.n=143. set Stock_Param param.3 Rééchantillonage "nb_Simu" fois du triangle des résidus ajustés data T2. ⇒ Récupération des paramètres de régression run.µ ) du triangle supérieur ⇒ Proc surveyselect : assigne un n° « Replicate » à chaque triangle dupliqué ⇒ désigne par « numrecs » le nombre d’éléments du triangle (soit n) proc surveyselect data=T1 out=T1 method=srs samprate=1 rep=&nb_Simu. proc transpose data=param out=param.Pseudo_S where replicate =&cpt. ⇒ Création de la 1ère ligne de la table DATA Stock_Param. 2. quit. 2. proc print data=Param. 2.clear output".1 Régression sur le cptème pseudo triangle de coûts moyens ods output ParameterEstimates=Param.5. model S= a1 b1 b2 b3 c1 d1 d2 e1 / dist=g link=log noint . by replicate N_Obs.2 Sortie des paramètres de régression data Param(keep=estimate). proc genmod data=temp. ⇒ On sélectionne le résidu output. S=mu+res_P_aj*V_mu**0. ⇒ Extraction d'un pseudo triangle create table work. %end.nb_Simu=10000). RUN. %mend bootstrap. end. ⇒ On simule le n° du résidu à tirer par tirage uniforme set T2 nobs=numrecs point=p. stop. SET param .5 Régression des "nb_Simu" pseudo triangles %do cpt = 1 %to &NB_Simu. . 2. run. do N_Obs=1 to numrecs. set Param. quit. %end.run. proc SQL.2 Duplication "nb_Simu" fois des n couples (V(µ).temp as select * from work. output out=residus resraw=res_brut reschi=res_P pred=mu. 2. run. run.Annexes 2. ⇒ Ajout des lignes supplémentaires DATA Stock_Param. end. merge T1 T2.5. dm "clear log. p=ceil(numrecs*ranuni(394747373)). do replicate=1 to &NB_Simu.4 Génération des pseudo coûts moyens data Pseudo_S(keep = replicate a1 b1-b3 c1 d1-d2 e1 S) . ⇒ Réplication bootstrap des coûts moyens run.%else %do.5. %bootstrap(p=8.

on a par définition de U : P[G ( U ) < z ] = P[U < G( z )] = G( z ) . nous décidons de simuler les tij par la méthode classique de l’inversion de la fonction de répartition. Autrement dit. (1) En d’autres termes. il s’agit pour chaque survenance i de simuler (Ni – Ni. on note que ces variables ont pour f.1]. Par l’équation (1).a. on obtient facilement l’expression de la fonction G-1 : t = t0 − 1 −1 ln(1 − G( t ) ) = G ( G( t ) ) .1]. que G est continue et strictement croissante sur [0.1]. i = 1. ci 108 109 Se reporter à l’annexe M. et telles que tij > t0. −1 . Cette méthode repose sur le fait que si G est continue et strictement croissante sur [0.1] et d’appliquer la fonction G-1 à chacune de ces valeurs.d. Calcul du risque de provision : simulations des dates de règlements futurs Afin d’être en cohérence avec le modèle de provision. uniforme U sur l’intervalle [0. la probabilité d’un sinistre d’être réglé entre t et t+dt sachant qu’il n’était pas réglé en t0 est indépendante du temps passé et égale à P( t < T < t + dt T > t 0 ) = F( t + dt ) − F( t ) − c ⋅dt = 1 − e i ≈ ci ⋅ dt 1 − F( t 0 ) Comme G et sa fonction réciproque G-1 sont connues.0) réalisations tij d’une variable exponentielle T dont la loi est de paramètre ci. En utilisant la définition des probabilités conditionnelles. …. En désignant par U une variable uniforme sur l’intervalle [0 .r. I. Pour simuler un néchantillon d’une loi de fonction de répartition G. Ensuite. nous choisissons pour chaque survenance de simuler les dates des règlements futurs à partir d’une loi exponentielle de fonction de répartition P( T ≤ t ) = F( t ) = T=t T =0 ∫c ⋅e i − c i ⋅T dT . on retrouve immédiatement la propriété d’absence de mémoire caractéristique de la loi exponentielle avec G( t ) = P( T < t T > t 0 ) = P( T < t − t 0 ) = 1 − e −c i ⋅( t − t 0 ) = F( t − t 0 ) .Annexes R.r G( t ) = P( T < t T > t 0 ) = −c ⋅t P( t 0 < T < t ) F( t ) − F( t 0 ) = . il suffit alors de simuler n réalisations d’une v. nous continuons de supposer que les nombres de sinistres restant à régler sont connus et certains. P( T > t 0 ) 1 − F( t 0 ) Comme108 F( t ) = 1 − e i . la variable aléatoire G-1(U) a également pour fonction de répartition G109.

et des variables explicatives associées.95 1 18 0.40 0.05 0.09 0. Calcul du risque de provision : programmation de la régression à un an A chaque itération de la procédure Bootstrap110.7095 0.21 0.00 1 18 1.92 1 18 0.40 0. Entrées La macro SAS prend pour entrées : .39 0.1313 2.39 0.00 0.59 1 18 0.00 b3 0.9809 -8.99 1 18 0.99 1 18 1.00 0.01 0.09 0.00 0.99 1 18 0.39 0.69 1 18 0.09 0.81 1 18 0. Elle est constituée de B blocs.00 0.0366 110 111 Se reporter à la procédure de calcul du risque à un an décrite au chapitre II de la partie III.1818 -0.02 0. Les coûts moyens et les variables associées de la diagonale correspondant au 1er scénario sont présentés ci-dessous : N_Simu 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 i 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 t T_ope a1 18 0.1538 0.1023 0.91 1 18 0.10 0.00 1 18 0.Annexes S.10 0. composés des coûts moyens (hors inflation) de l’année simulés pour chaque scénario sous Excel pour les survenances i = 3 à 17111.32 0.La table initiale des coûts moyens « INC » utilisée dans la spécification du modèle Best Estimate et correspondant au triangle de liquidation initial vu en t0. Pour les survenances i = 1 et 2.09 0.La table « Diag » de Bx15 lignes.4163 3. .87 1 18 0.31 0.35 0.99 1 18 0.36 0.39 0. Chacun des B scénarios est identifié par la variable « n_Simu ».33 1 b1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 b2 0.27 0. la macro SAS réajuste le modèle de provisionnement à partir du triangle de liquidation vu à un an.00 c1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 c2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 d1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 d2 0 0 0 0 0 0 0 0 0 0 0 0 0 9 9 e1 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 S 75 626 0 116 700 100 307 69 230 113 854 89 035 144 748 131 827 143 289 121 211 104 002 51 165 15 411 33 171 Sorties La 1ère ligne de la table de sortie « Stock_Param » est présentée ci-dessous.09 0. . l’ensemble des sinistres sont supposés réglés (d’après les estimations de Taylor).06 0.00 0. N_Simu a1 b1 b2 b3 C1 d1 d2 e1 1 10.96 1 18 0. Les valeurs des paramètres sont utilisées sous Excel pour calculer la provision à un an. Elle est constituée des paramètres de régression estimés.

%if &cpt=1 %then %do. . data Param(keep=estimate). DATA Stock_Param. l’échantillon ajusté par le modèle GLM-gamma est constitué du triangle original « INC » et d’une diagonale de coûts moyens de l’année à venir : %macro bootstrap_1an(nb_Simu=). %end. ⇒ Stockage des paramètres de régression ⇒ lecture des paramètres de régression data Stock_Param(keep=a1 b1-b3 c1 d1 d2 e1 phi t3-t17). set Stock_Param.Annexes Macro SAS A chacune des « nb_simu » itérations.clear output". run. then estimate=t_ope. output out=residus resraw=res_brut reschi=res_P pred=mu. quit. run. if estimate ne . ⇒ Sortie ODS des coefficients de régression run. ⇒ Sélection d’une diagonale create table work. run. ods output ParameterEstimates=Param. proc SQL. run. set Stock_Param param. run. proc print data=Param. data T(drop=n_simu). DATA Stock_Param. ⇒ Ajout de la diagonale au triangle original set INC Temp. if estimate = .Diag where n_Simu =&cpt. ⇒ Ajustement du modèle GLM-gamma proc genmod data=T. ⇒ Ajustement des « nb_simu » pseudo triangles dm "clear log. run. set temp. set Param temp. ods listing. proc transpose data=param out=param. rename COL2=a1 COL3 = b1 COL4 = b2 COL5=b3 COL6=c1 COL7 = d1 COL8=d2 COL9 = e1. run. %do cpt = 1 %to &NB_Simu.%else %do. %bootstrap_1an(nb_Simu=4000). model S= a1 b1 b2 b3 c1 d1 d2 e1 / dist=g link=log noint . quit. %mend bootstrap_1an. %end. then estimate = estimate. %end.temp as select * from work. data Temp(keep=estimate t_ope). SET param .