Modèles et Méthodes de Réservation

Dimension: px
Commencer à balayer dès la page:

Download "Modèles et Méthodes de Réservation"

Transcription

1 Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D Dresden E mail: schmidt@mathtu-dresdende Internet: wwwmathtu-dresdende/sto/schmidt/

2 Table des Matières 1 Notions de Base 1 11 Représentation des Données 1 12 Modèles de Développement 4 13 Modèles Multiplicatifs 7 2 Méthodes Basées sur les Facteurs 8 21 La Méthode Chain Ladder 8 22 Le Modèle de Mack Le Modèle de Schnaus Prévision Optimale 15 3 Méthodes Basées sur les Taux La Méthode Grossing Up La Méthode Loss Development La Méthode Bornhuetter Ferguson La Méthode Benktander La Méthode Bornhuetter Ferguson Itérative 25 4 Méthodes Basées sur les Pourcentages La Méthode des Sommes Marginales Le Modèle Poisson Le Modèle Multinomial 30 5 Modèles de Crédibilité Le Cadre Général Modèles avec un Paramètre Aléatoire Le Modèle de Mack Le Modèle de Witting Le Modèle de Hesselager et Witting 42 6 Prévision dans les Modèles Linéaires Le Cadre Général Adaptation à la Réservation Le Modèle de Mack 50 Bibliographie 53

3 Chapitre 1 Notions de Base Dans ce chapitre on développe une représentation canonique des données et on considère des modèles de développement et des modèles multiplicatifs 11 Représentation des Données Dans cette section, on développe une représentation des données qui sera utilisée dans tous les méthodes et modèles de réservation Exemple Immédiatement après la fin de l an 2000 on dispose des chiffres suivants qui représentent les prestations annuelles pour des sinistres des années d origine 1995 à 2000: Année Année de Développement d Origine Pour mieux pouvoir détecter soit une structure de développement soit des sinistres extraordinaires ou des effets d inflation, il est préférable d utiliser une numérotation relative pour les années de développement: Exemple Passage à la numérotation relative des années de développement: Année Année de Développement d Origine

4 2 Chapitre 1 Notions de Base Pour la description et la modélisation mathématique des différents méthodes de réservation il est avantageux d utiliser la numérotation relative non seulement pour les années de développement mais aussi pour les années d origine: Exemple Passage à la numérotation relative des années d origine: Année Année de Développement d Origine Triangles et Carrés de Variables Aléatoires On suppose que chaque sinistre sera réglé après n + 1 années de développement, soit dans les n années civiles suivant l année d origine On considère une famille {Z i,k } i,k {0,1,,n} de variables aléatoires (positives) qui sont définies sur un espace de probabilité (Ω,F,P ) On interprète Z i,k comme paiement dans l année de développement k pour des sinistres de l année d origine i Alors Z i,k signifie un paiement dans l année civile i+k Les variables aléatoires Z i,k s appellent accroissements On suppose que les accroissements Z i,k sont observables (mais pas encore observées) pour i + k n et non observables (ou pas encore observables) pour i + k > n Les accroissements observables sont représentés dans un triangle de développement: Année Année de Développement d Origine 0 1 k n i n 1 n 0 Z 0,0 Z 0,1 Z 0,k Z 0,n i Z 0,n 1 Z 0,n 1 Z 1,0 Z 1,1 Z 1,k Z 1,n i Z 1,n 1 i Z i,0 Z i,1 Z i,k Z i,n i n k Z n k,0 Z n k,1 Z n k,k n 1 Z n 1,0 Z n 1,1 n Z n,0 On appelle n la durée du développement ou l année civile actuelle

5 11 Représentation des Données 3 On considère aussi les états S i,k := k l=0 Z i,l qui sont observables pour i + k n et non observables pour i + k > n On a Z i,k = { Si,0 si k = 0 S i,k S i,k 1 si k 1 Les états observables sont également représentés dans un triangle de développement: L état Année Année de Développement d Origine 0 1 k n i n 1 n 0 S 0,0 S 0,1 S 0,k S 0,n i S 0,n 1 S 0,n 1 S 1,0 S 1,1 S 1,k S 1,n i S 1,n 1 i S i,0 S i,1 S i,k S i,n i n k S n k,0 S n k,1 S n k,k n 1 S n 1,0 S n 1,1 n S n,0 s appelle état actuel S i,n i En ajoutant au triangle de développement les accroissements ou états non observables, on obtient le carré de développement pour les accroissements Année Année de Développement d Origine 0 1 k n i n 1 n 0 Z 0,0 Z 0,1 Z 0,k Z 0,n i Z 0,n 1 Z 0,n 1 Z 1,0 Z 1,1 Z 1,k Z 1,n i Z 1,n 1 Z 1,n i Z i,0 Z i,1 Z i,k Z i,n i Z i,n 1 Z i,n n k Z n k,0 Z n k,1 Z n k,k Z n k,n i Z n k,n 1 Z n k,n n 1 Z n 1,0 Z n 1,1 Z n 1,k Z n 1,n i Z n 1,n 1 Z n 1,n n Z n,0 Z n,1 Z n,k Z n,n i Z n,n 1 Z n,n

6 4 Chapitre 1 Notions de Base et le carré de développement pour les états Année Année de Développement d Origine 0 1 k n i n 1 n 0 S 0,0 S 0,1 S 0,k S 0,n i S 0,n 1 S 0,n 1 S 1,0 S 1,1 S 1,k S 1,n i S 1,n 1 S 1,n i S i,0 S i,1 S i,k S i,n i S i,n 1 S i,n n k S n k,0 S n k,1 S n k,k S n k,n i S n k,n 1 S n k,n n 1 S n 1,0 S n 1,1 S n 1,k S n 1,n i S n 1,n 1 S n 1,n n S n,0 S n,1 S n,k S n,n i S n,n 1 S n,n L état S i,n s appelle état terminal de l année d origine i et la différence s appelle réserve de l année d origine i R i := S i,n S i,n i 12 Modèles de Développement La plupart des méthodes et des modèles de réservation est basée sur l idée qu il existe un certain modèle de développement Il y a plusieurs possibilités pour définir un modèle de développement Ici nous considérons trois modèles de développement et nous démontrons que ces trois modèles de développement sont en fait équivalents: Modèle de Développement pour les Pourcentages Dans le modèle de développement pour les pourcentages on compare les espérances des accroissements avec les espérances des états terminaux: Modèle de Développement pour les Pourcentages: Il y a des paramètres ϑ 0,ϑ 1,, ϑ n (0,1) avec n k=0 ϑ k = 1 tels que pour tout i,k {0,1,,n} E[Z i,k ] = E[S i,n ] ϑ k Les paramètres d un modèle de développement pour les pourcentages s appellent pourcentages de développement

7 12 Modèles de Développement 5 Modèle de Développement pour les Taux Dans le modèle de développement pour les pourcentages on compare les espérances des états avec les espérances des états terminaux: Modèle de Développement pour les Taux: Il y a des paramètres γ 0,γ 1,, γ n (0,1] avec γ 0 < γ 1 < < γ n = 1 tels que pour tout i,k {0,1,,n} E[S i,k ] = E[S i,n ] γ k Les paramètres d un modèle de développement pour les taux s appellent taux de développement Modèle de Développement pour les Facteurs Dans le modèle de développement pour les pourcentages on compare les espérances de deux états successifs: Modèle de Développement pour les Facteurs: Il y a des paramètres ϕ 1,,ϕ n (1, ) tels que E[S i,k ] = E[S i,k 1 ] ϕ k pour tout i {0,1,,n} et k {1,,n} Les paramètres d un modèle de développement pour les facteurs s appellent facteurs de développement Comparaison Le théorème suivant montre que les trois modèles de développement sont équivalents: Théorème (1) Soit ϑ 0,ϑ 1,,ϑ n un modèle de développement pour les pourcentages Pour k {0,1,,n} on définit γ k := k l=0 ϑ l Alors γ 0,γ 1,,γ n est un modèle de développement pour les taux (2) Soit γ 0,γ 1,,γ n un modèle de développement pour les taux Pour k {1,,n} on définit ϕ k := γ k /γ k 1 Alors ϕ 1,,ϕ n est un modèle de développement pour les facteurs

8 6 Chapitre 1 Notions de Base (3) Soit ϕ 1,,ϕ n un modèle de développement pour les facteurs Pour k {0,1,,n} on définit γ k := n 1 ϕ l l=k+1 Alors γ 0,γ 1,,γ n est un modèle de développement pour les taux (4) Soit γ 0,γ 1,,γ n un modèle de développement pour les taux Pour k {0,1,,n} on définit ϑ k := { γ0 si k = 0 γ k γ k 1 si k 1 Alors ϑ 0,ϑ 1,,ϑ n est un modèle de développement pour les pourcentages Comme corollaire du théorème, on obtient un résultat supplémentaire: Corollaire (1) Soit ϑ 0,ϑ 1,,ϑ n un modèle de développement pour les pourcentages Pour k {1,,n} on définit ϕ k := k l=0 ϑ l k 1 l=0 ϑ l Alors ϕ 1,,ϕ n est un modèle de développement pour les taux (2) Soit ϕ 1,,ϕ n un modèle de développement pour les facteurs Pour k {0,1,,n} on définit ϑ k := n l=k+1 1 ϕ l n l=1 n l=k 1 ϕ l si k = 0 1 ϕ l si k 1 Alors ϑ 0,ϑ 1,,ϑ n est un modèle de développement pour les pourcentages On présente enfin un exemple qui illustre les différents modèles de développement: Exemple Année de Développement k Pourcentages ϑ k 0,400 0,240 0,160 0,120 0,046 0,034 Taux γ k 0,400 0,640 0,800 0,920 0,966 1 Facteurs ϕ k 1,600 1,250 1,150 1,050 1,035

9 13 Modèles Multiplicatifs 7 13 Modèles Multiplicatifs Les modèles multiplicatifs sont liés aux modèles de développement, mais ils sont légèrement plus précis Ici nous considérons deux modèles multiplicatifs qui sont en fait équivalents: Modèle Multiplicatif pour les Accroissements Le modèle multiplicatif pour les accroissements est lié au modèle de développement pour les pourcentages: Modèle Multiplicatif pour les Accroissements: Il y a des paramètres α 0,α 1,,α n (0, ) et ϑ 0,ϑ 1,, ϑ n (0,1) avec n k=0 ϑ k = 1 tels que pour tout i,k {0,1,,n} E[Z i,k ] = α i ϑ k Dans le modèle multiplicatif pour les accroissements on a E[S i,n ] = n E[Z i,k ] = k=0 n α i ϑ k = α i k=0 Le paramètre α i est donc l espérance de l état terminal de l année d origine i et les paramètres ϑ 0,ϑ 1,,ϑ n forment un modèle de développement pour les pourcentages Modèle Multiplicatif pour les États Le modèle multiplicatif pour les états est lié au modèle de développement pour les taux: Modèle Multiplicatif pour les États: Il y a des paramètres α 0,α 1,,α n (0, ) et γ 0,γ 1,, γ n (0,1] avec γ 0 < γ 1 < < γ n = 1 tels que E[S i,k ] = α i γ k pour tout i,k {0,1,,n} Dans le modèle multiplicatif pour les états on a E[S i,n ] = α i Le paramètre α i est donc l espérance de l état terminal de l année d origine i et les paramètres γ 0,γ 1,,γ n forment un modèle de développement pour les taux

10 Chapitre 2 Méthodes Basées sur les Facteurs Dans ce chapitre on étudie la méthode chain ladder qui est liée au modèle de développement pour les facteurs, ainsi que certaines modifications de cette méthode On étudie également deux modèles stochastiques qui servent à justifier la méthode chain ladder 21 La Méthode Chain Ladder La méthode chain ladder est basée sur le modèle suivant: Modèle Chain Ladder: (i) Il y a des paramètres ϕ 1,,ϕ n (1, ) tels que E[S i,k ] = E[S i,k 1 ] ϕ k pour tout i {0,1,,n} et k {1,,n} (ii) Pour tout k {1,,n} on a n k j=0 S j,k 1 > 0 Nous supposons dans cette section que les conditions du modèle chain ladder sont satisfaites et que les paramètres ϕ 1,,ϕ n sont inconnus Facteurs de Chain Ladder et Estimateurs de Chain Ladder La méthode chain ladder procède en deux pas: Pour chaque année de développement k {1,,n} on définit le facteur de chain ladder F CL k := n k j=0 S j,k n k j=0 S j,k 1 comme estimateur du paramètre ϕ k Pour chaque année d origine i {0,1,,n} et chaque année de développement k {n i,,n} on définit l estimateur de chain ladder Ŝ CL i,k := S i,n i k l=n i+1 F CL l comme estimateur de l espérance E[S i,k ] de l état futur S i,k

11 21 La Méthode Chain Ladder 9 On a donc ŜCL i,n i = S i,n i et pour tout k {n i+1,,n} Ŝ CL i,k = ŜCL i,k 1 Exemple Pour le triangle de développement F CL k Année Année de Développement d Origine on obtient les réalisations des derniers facteurs de chain ladder = 6410 = et les réalisations des estimateurs de chain ladder Il en résulte le carré de développement complété Année Année de Développement d Origine Facteur Réserves de Chain Ladder Pour i {0,1,,n}, la différence R CL i := ŜCL i,n S i,n i

12 10 Chapitre 2 Méthodes Basées sur les Facteurs s appelle réserve de chain ladder pour l année d origine i On a R CL := n i=0 R CL i R CL 0 = 0 La somme s appelle réserve globale de chain ladder pour l ensemble de toutes les années de développement Exemple Pour l année d origine 3 on obtient la réserve Ainsi on obtient le tableau suivant: = 1710 Année Année de développement Réserve d Origine Somme La réserve globale de chain ladder est égale à Chain Ladder et Grossing Up A partir du modèle de développement ϕ 1,,ϕ n pour les facteurs, on obtient un modèle de développement γ 0,γ 1,,γ n pour les taux en posant En utilisant les taux de chain ladder γ k := Ĝ CL k := n 1 ϕ l l=k+1 n l=k+1 1 F CL l on peut écrire les estimateurs de chain ladder dans la forme Ŝi,k CL = S i,n i Ĝ CL Ĝ CL k n i Ceci veut dire que l on obtient les estimateurs de chain ladder a partir de l état actuel S i,n i par deux changements d échelle, en passant d abord au niveau de l état terminal S i,n et puis au niveau de l état S i,k dont il faut estimer l espérance Cette représentation des estimateurs de chain ladder est intimement liée à la définition des estimateurs de grossing up

13 21 La Méthode Chain Ladder 11 Une Autre Explication de la Méthode Chain Ladder Si l on suppose que tous les états sont strictement positifs, on peut définir les facteurs de développement individuels F i,k := S i,k S i,k 1 Les facteurs de développement individuels sont observables pour i+k n et ils sont non observables pour i + k > n À l aide des facteurs de développement individuels non observables, on peut écrire les états non observables de la manière suivante: S i,k = S i,n i k l=n i+1 Si l on remplace les facteurs de développement individuels par les facteurs de chain ladder, on arrive à la définition des estimateurs de chain ladder Ŝ CL i,k := S i,n i En plus, les facteurs de chain ladder F CL k = k l=n i+1 F i,l n k j=0 S j,k n k j=0 S j,k 1 se montrent comme moyennes pondérées de facteurs de développement observables: F CL k = n k j=0 F CL l S j,k 1 n k h=0 S F j,k h,k 1 Exemple Pour le facteur de développement de l année d origine 3 et de l année de développement 2 on obtient la réalisation Ainsi on obtient le tableau suivant: Année Année de Développement d Origine Facteur On remarque que, dans chaque colonne, les facteurs de développement individuels ne diffèrent que très peu

14 12 Chapitre 2 Méthodes Basées sur les Facteurs Modifications de la Méthode Chain Ladder Supposons encore que tous les états sont strictement positifs, on peut modifier la méthode chain ladder de la manière suivante: Pour chaque année de développement k {1,,n} on choisit une famille {W j,k } j {0,1,,n k} de variables aléatoires telle que n k j=0 W j,k = 1 et on définit le facteur de chain ladder modifié F k := n k W j,k F j,k j=0 Pour chaque année d origine i {0,1,,n} et chaque année de développement k {n i,,n} on définit l estimateur de chain ladder modifié Ŝ i,k := S i,n i k l=n i+1 F l En vue de la diversité des possibilités de choisir les poids, il se pose la question sous quelles conditions et dans quel sens les poids de chain ladder présentent un choix optimal W CL j,k := S j,k 1 n k h=0 S h,k 1 22 Le Modèle de Mack Le modèle de Mack est un des premiers modèles stochastiques (sinon le premier modèle stochastique) pour la méthode chain ladder Pour la définition du modèle de Mack, on a besoin des tribus avec i,k {0,1,,n} Modèle de Mack: F i,k := σ({s i,l } l {0,1,,k} ) (i) Les années d origine sont indépendantes (ii) Pour tout i {0,1,,n} on a E[S i,n ] > 0 (iii) Il y a des paramètres ϕ 1,,ϕ n (1, ) et v 1,,v n (0, ) tels que E(S i,k F i,k 1 ) = S i,k 1 ϕ k var(s i,k F i,k 1 ) = S i,k 1 v k pour tout i {0,1,,n} et k {1,,n}

15 22 Le Modèle de Mack 13 Nous supposons dans cette section que les conditions du modèle de Mack sont satisfaites et que les paramètres ϕ 1,,ϕ n et v 1,,v n sont inconnus La première partie de la condition (iii) est équivalente à la condition suivante: Il y a des paramètres ϕ 1,,ϕ n (1, ) tels que ( n ) n E ϕ l F i,k 1 = S i,k 1 S i,k l=k+1 pour tout i {0,1,,n} et k {1,,n} En posant γ k := n 1 ϕ l l=k+1 dans cette dernière condition, celle-ci peut être écrite de la manière suivante: Il y a des paramètres γ 0,γ 1,,γ n (0,1] tels que 0 < γ 0 < γ 1 < < γ n = 1 et ( ) S i,k E γ k F i,k 1 = S i,k 1 γ k 1 pour tout i {0,1,,n} et k {1,,n} Cette condition dit que, pour chaque année d origine i {0,1,,n}, la famille {S i,k } k {0,1,,n} forme une martingale par rapport à la filtration {F i,k } k {0,1,,n} Il est immédiatement claire de la définition que le modèle de Mack est un modèle de développement pour les facteurs Le résultat suivant est légèrement plus précis: Théorème Le modèle de Mack est un modèle multiplicatif Supposons maintenant que tous les états sont strictement positifs Dans ce cas, la première identité de la condition (iii) s écrit aussi comme une propriété des facteurs de développement individuels: E(F i,k F i,k 1 ) = ϕ k A partir de cette équation on obtient les identités et E(S i,k F i,n i ) = S i,n i k E(ŜCL i,k F i,n i ) = S i,n i On en tire un résultat assez remarquable: l=n i+1 k l=n i+1 Théorème Dans le modèle de Mack, les estimateurs de chain ladder sont non biaisés l=k ϕ l ϕ l ϕ l

16 14 Chapitre 2 Méthodes Basées sur les Facteurs Cependant, il se trouve que les estimateurs de chain ladder ne sont pas les seuls estimateurs non biaisés des espérances des états futurs Pour le voir, on considère les tribus F k := σ({s j,l } j {0,1,,n}, l {0,1,,k} ) avec k {0,1,,n} Ensuite on choisit pour chaque k {1,,n} une famille {W j,k } j {0,1,,n k} de variables aléatoires mesurables par rapport à F k 1 telle que n k j=0 W j,k = 1 et on définit F k := n k W j,k F j,k j=0 et Ŝ i,k := S i,n i k l=n i+1 F l On démontre que ces estimateurs des chain ladder modifiés sont également des estimateurs non biaisés L absence du biais n est donc pas une propriété qui justifie de choisir les estimateurs de chain ladder Cependant, les estimateurs de chain ladder peuvent être distingués parmi les estimateurs de chain ladder modifiés par un certain critère d optimisation, et ceci est même possible dans un modèle qui est un peu plus générale que le modèle de Mack 23 Le Modèle de Schnaus Le modèle de Schnaus est entièrement formulé par des conditions concernant des moments conditionnels: Modèle de Schnaus: (i) Pour tout i {0,1,,n} on a E[S i,n ] > 0 (ii) Il y a des variables aléatoires F 1,,F n > 1 et V 1,,V n > 0 telles que E(S i,k F k 1 ) = S i,k 1 F k cov(s i,k,s j,k F k 1 ) = S i,k 1 V k δ i,j pour tout i,j {0,1,,n} et k {1,,n} La comparaison des modèles de Mack et de Schnaus n est pas évidente, mais on a le résultat suivant: Théorème Le modèle de Mack implique le modèle de Schnaus On peut même démontrer que le modèle de Schnaus est une généralisation stricte du modèle de Mack:

17 24 Prévision Optimale 15 Exemple Soit n = 1 et supposons que la distribution des accroissements soit donnée par [ 1 ] 1 P {Z i,k = z i,k } = e α αz 0,0 (z0,0 2 )z 0,1 z 0,0! e z2 0,0 e α αz 1,0 z 0,1! z 1,0! e z 0,0z 1,0 (z 0,0 z 1,0 ) z1,1 z 1,1! i=0 k=0 avec α (0, ) Alors les conditions du modèle de Schnaus sont satisfaites avec F 1 = Z 0,0 + 1 V 1 = Z 0,0 Puisque les variables aléatoires F 1 et V 1 ne sont pas constantes, les conditions du modèle de Mack ne sont pas satisfaites En plus, on a E[Z 0,0 ] = α E[Z 0,1 ] = α 2 + α E[Z 1,0 ] = α E[Z 1,1 ] = α 2 Le modèle présent n est donc pas un modèle multiplicatif L exemple précédant montre que le modèle de Schnaus n est pas nécessairement un modèle de développement 24 Prévision Optimale Nous allons maintenant étudier la question si les estimateurs de chain ladder sont optimaux dans un certain sens Pour le faire, nous supposons que tous les états sont strictement positifs Pour k {1,,n}, soit Φ k la collection des facteurs de chain ladder modifiés Alors il existe, pour chaque F k Φ k, une famille {W j,k } j {0,1,,n k} de variables aléatoires mesurables par rapport à F k 1 telle que n k j=0 W j,k = 1 et F k = n k W j,k F j,k j=0 Pour i {1,,n} et k {n i+1,,n}, soit i,k la collection des estimateurs de chain ladder modifiés pour (l espérance de) l état S i,k Alors il existe, pour chaque Ŝi,k i,k, une famille { F l } l {n i+1,,k} avec F l Φ l pour tout l {n i + 1,,k} telle que Ŝ i,k = S i,n i k l=n i+1 F l Évidemment, on a F CL k Φ k et ŜCL i,k i,k

18 16 Chapitre 2 Méthodes Basées sur les Facteurs Un estimateur dans la collection i,k s appelle estimateur admissible pour l état S i,k, et un estimateur admissible pour S i,k s appelle estimateur optimal s il minimise l erreur quadratique conditionnelle ( ) ) 2 E (Ŝi,k S i,k Fn i dans i,k On a le résultat suivant: Théorème Dans le modèle de Schnaus, l estimateur de chain ladder Ŝi,n i+1 CL est un estimateur optimal pour S i,n i+1, et c est le seul estimateur optimal Ce résultat est très satisfaisant, mais il s applique seulement à la première année civile non observable Pour la deuxième année civile non observable, la situation est complètement différente: Théorème Dans le modèle de Mack, l estimateur de chain ladder ŜCL i,n i+2 n est pas nécessairement un estimateur optimal pour S i,n i+2 Ce résultat négatif indique que le critère qu on a utilisé jusqu ici pour juger la qualité des estimateurs n est peut être pas tout à fait approprié Si l on considère que l estimation pour le futur proche est beaucoup plus important que l estimation pour le futur éloigné, on arrive à un autre critère qui est hiérarchique Le critère hiérarchique impose, pour k n i+1, la restriction aux estimateurs admissibles Ŝi,k qui ont la forme avec F k Φ k Ŝ i,k = S CL i,k 1 F k Théorème Dans le modèle de Schnaus et sous le critère hiérarchique, chaque estimateur de chain ladder est un estimateur optimal Ce dernier résultat peut être considéré comme justification, ou bien comme explication, de la méthode chain ladder

19 Chapitre 3 Méthodes Basées sur les Taux Dans ce chapitre on étudie plusieurs méthodes liées au modèle de développement pour les taux 31 La Méthode Grossing Up La méthode grossing up est basée sur le modèle suivant: Modèle Grossing Up: (i) Il y a des paramètres γ 0,γ 1,,γ n (0,1] avec γ 0 < γ 1, < < γ n = 1 tels que E[S i,k ] = E[S i,n ] γ k pour tout i {0,1,,n} et k {1,,n} (ii) Pour tout k {1,,n} on a n k j=0 S j,k 1 > 0 Nous supposons dans cette section que les conditions du modèle grossing up sont satisfaites et que les paramètres γ 0,γ 1,,γ n 1 sont inconnus Taux de Grossing Up et Estimateur de Grossing Up La méthode grossing up est définie par une procédure récursive: Pour chaque année d origine i {0,1,,n}, on définit d abord le taux de grossing up 1 si i = 0 Ĝ GU i 1 n i := j=0 S j,n i si i 1 i 1 j=0 ŜGU j,n comme estimateur du paramètre γ n i et puis on définit l estimateur de grossing up Ŝ GU i,n := S i,n i Ĝ GU n i comme estimateur de l espérance E[S i,n ] de l état terminal S i,n On a ŜGU 0,n = S 0,n

20 18 Chapitre 3 Méthodes Basées sur les Taux Dans la méthode grossing up, on obtient les estimateurs de grossing up a partir de l état actuel S i,n i par un changement d échelle, en passant au niveau de l état terminal S i,n La méthode grossing up peut être étendue pour obtenir aussi des estimateurs des espérances des autres états futurs en définissant On a ŜGU i,n i = S i,n i Réserves de Grossing Up Pour i {0,1,,n} la différence Ŝi,k GU := ĜGU k Ŝ GU i,n R i GU := ŜGU i,n S i,n i s appelle réserve de grossing up pour l année d origine i On a ( ) R i GU = 1 ĜGU n i ŜGU i,n La somme R GU := n i=0 R GU i s appelle réserve globale de grossing up pour l ensemble de toutes les années de développement Exemple Pour le triangle de développement Année Année de Développement d Origine on obtient les réalisations des taux de grossing up des dernières années de développement et des estimateurs de grossing up des premières années d origine = =

21 31 La Méthode Grossing Up 19 Il en résulte le carré de développement complété Année Année de Développement Réserve d origine Taux Somme La réserve globale de grossing up est égale à Grossing Up et Chain Ladder Les réalisations des réserves de grossing up calculées dans l exemple diffèrent légèrement des réalisations des réserves de chain ladder Il se trouve que ces différences sont dues exclusivement à l arrondissement des chiffres présentés dans les tableaux Le lemme suivant établit une relation fondamentale entre les taux de grossing up et les facteurs et les taux de chain ladder: Lemme On a Ĝ GU CL k 1 F k = ĜGU k et pour tout k {0,1,,n} Ĝ GU k = ĜCL k Du lemme on déduit le résultat suivant: Théorème On a Ŝ GU i,k = ŜCL i,k pour tout i {0,1,,n} et k {n i,,n} À cause du théorème, les estimateurs de grossing up et les estimateurs de chain ladder sont identiques pour tous les états futurs Modifications de la Méthode Grossing Up L identité Ĝ n i = i 1 j=0 Ŝj,n GU i 1 h=0 ŜGU h,n S j,n i Ŝ GU j,n

22 20 Chapitre 3 Méthodes Basées sur les Taux montre que les taux de grossing up peuvent être représentés comme moyennes pondérées des taux de développement individuels Ĝ j,n i := S j,n i Ŝ GU j,n On obtient donc une modification de la méthode grossing up en choisissant, pour chaque année de développement k {0,1,,n 1}, une famille {W j,k } j {0,1,,n k 1} de variables aléatoires satisfaisant n k 1 j=0 W j,k = 1 et en définissant pour i {0,1,,n} et Ĝ n i := 1 si i = 0 i 1 j=0 W j,n i S j,n i Ŝ j,n si i 1 Ŝ i,n := S i,n i Ĝ n i Pour choisir les poids W j,k méthode chain ladder on a les mêmes possibilités comme dans le cas de la 32 La Méthode Loss Development La méthode loss development est une généralisation de la méthode chain ladder Elle est basée sur le modèle multiplicatif pour les états: Modèle Multiplicatif pour les États: Il y a des paramètres α 0,α 1,,α n (0, ) et γ 0,γ 1,, γ n (0,1] avec γ 0 < γ 1 < < γ n = 1 tels que E[S i,k ] = α i γ k pour tout i,k {0,1,,n} Nous supposons dans cette section que les conditions du modèle multiplicatif pour les états sont satisfaites et que les paramètres α 0,α 1,,α n et γ 0,γ 1,,γ n 1 sont inconnus La méthode loss development repose sur des estimateurs a priori γ 0, γ 1,, γ n avec γ n := 1 comme estimateurs des taux de développement et elle utilise les estimateurs de loss development Ŝ LD i,k := γ k S i,n i γ n i comme estimateurs des espérances E[S i,k ] des états futurs S i,k

23 32 La Méthode Loss Development 21 On a et alors La différence Ŝ LD i,n = S i,n i γ n i Ŝi,k LD = γ k Ŝi,n LD R LD i := ŜLD i,n S i,n i s appelle réserve de loss development pour l année de développement i Les réserves de loss development peuvent être écrites dans la forme ( ) R i LD = 1 γ n i ŜLD i,n La somme R LD := s appelle réserve globale de loss development pour l ensemble de toutes les années de développement Exemple Nous considérons un triangle de développement, complété par des réalisations des estimateurs a priori des taux de développement qui ne sont pas obtenues par les données du triangle de développement: n i=0 R LD i Année Année de Développement k d Origine γ k Avec les réalisations des estimateurs de loss development on obtient le tableau suivant: Année Année de Développement k Réserve d Origine γ k Somme La réserve globale de loss development est égale à 10502

24 22 Chapitre 3 Méthodes Basées sur les Taux Le théorème suivant montre que la méthode loss development est en fait une généralisation de la méthode chain ladder: Théorème Si l on choisit les estimateurs a priori des taux de développement comme n n l j=0 γ k := S j,l 1 n l j=0 S j,l l=k+1 alors les estimateurs de loss development et les estimateurs de chain ladder sont identiques D autre part, la méthode loss development est un cas particulier de la méthode Bornhuetter Ferguson 33 La Méthode Bornhuetter Ferguson La méthode Bornhuetter Ferguson est une autre méthode basée sur le modèle multiplicatif pour les états: Modèle Multiplicatif pour les États: Il y a des paramètres α 0,α 1,,α n (0, ) et γ 0,γ 1,, γ n (0,1] avec γ 0 < γ 1 < < γ n = 1 tels que E[S i,k ] = α i γ k pour tout i,k {0,1,,n} Nous supposons dans cette section que les conditions du modèle multiplicatif pour les états sont satisfaites et que les paramètres α 0,α 1,,α n et γ 0,γ 1,,γ n 1 sont inconnus La méthode Bornhuetter Ferguson repose sur des estimateurs a priori γ 0, γ 1,, γ n avec γ n := 1 comme estimateurs des taux de développement et aussi sur des estimateurs a priori α 0, α 1,, α n comme estimateurs a priori des espérances des états terminaux Les estimateurs de Bornhuetter Ferguson des espérances des états futurs S i,k sont définis par ) Ŝi,k BF := S i,n i + ( γ k γ n i α i Les estimateurs de Bornhuetter Ferguson Ŝ BF i,n = S i,n i + ) (1 γ n i α i s appellent aussi estimateurs a posteriori; en général, ils diffèrent des estimateurs a priori

25 33 La Méthode Bornhuetter Ferguson 23 La différence R BF i := ŜBF i,n S i,n i s appelle réserve de Bornhuetter Ferguson pour l année d origine i On a ) R i BF = (1 γ n i α i De cette identité on voit que les réserves de Bornhuetter Ferguson sont entièrement déterminées par les estimateurs a priori La somme R BF := n i=0 R BF i s appelle réserve globale de Bornhuetter Ferguson Exemple Année Année de Développement k Réserve d Origine i α i γ k Somme La réserve globale de Bornhuetter Ferguson est égale à Les estimateurs de Bornhuetter Ferguson des états terminaux peuvent être écrits comme combinaisons convexes des estimateurs de loss development et des estimateurs a priori: ) Ŝi,n BF = γ n i Ŝi,n LD + (1 γ n i α i On en déduit que la méthode loss development est un cas spécial de la méthode Bornhuetter Ferguson: Théorème Pour tout i {0,1,,n}, soit α i := S i,n 1 γ n i Alors les estimateurs de Bornhuetter Ferguson et les estimateurs de loss development sont identiques Puisque la méthode chain ladder est un cas spécial de la méthode loss development, elle est aussi un cas spécial de la méthode Bornhuetter Ferguson

26 24 Chapitre 3 Méthodes Basées sur les Taux 34 La Méthode Benktander Pour mieux tenir compte des données du triangle de développement, Benktander a proposé une modification de la méthode Bornhuetter Ferguson Comme la méthode de Bornhuetter Ferguson, la méthode de Benktander est basée sur le modèle multiplicatif pour les états et elle repose sur des estimateurs a priori γ 0, γ 1,, γ n avec γ n := 1 comme estimateurs des taux de développement et aussi sur des estimateurs a priori α 0, α 1,, α n comme estimateurs a priori des espérances des états terminaux Les estimateurs de Benktander utilisent les estimateurs de Bornhuetter Ferguson au lieu des estimateurs a priori des états terminaux et ils sont définis comme ( ) Ŝi,k BE := S i,n i + γ k γ n i ŜBF i,n En particulier, on a ( ) Ŝi,n BE = S i,n i + 1 γ n i ŜBF i,n Les estimateurs de Benktander des états terminaux peuvent être écrits comme combinaisons convexes des estimateurs de loss development et des estimateurs de Bornhuetter Ferguson: ( ) Ŝi,k BE = γ n i Ŝi,k LD + 1 γ n i ŜBF i,k Puisque la méthode loss development est un cas particulier de la méthode Bornhuetter Ferguson, il découle de la dernière identité que la méthode loss development est aussi un cas particulier de la méthode Benktander La différence R BE i := ŜBE i,n S i,n i s appelle réserve de Benktander Le réserves de Benktander peuvent être écrits comme ( ) R i BE = 1 γ n i ŜBF i,n Ceci montre que les réserves de Benktander ne dépendent pas seulement des estimateurs a priori, mais aussi des états actuels

27 35 La Méthode Bornhuetter Ferguson Itérative La Méthode Bornhuetter Ferguson Itérative La méthode Benktander peut être considérée comme une interpolation entre la méthode Bornhuetter Ferguson et la méthode loss development En répétant l idée de Benktander, on arrive a la méthode de Bornhuetter Ferguson itérative Les estimateurs Ŝ (m) i,k := ) S i,n i + ( γ k γ n i α i si m = 0 ( ) S i,n i + γ k γ n i Ŝ(m 1) i,n si m 1 s appellent estimateurs de Bornhuetter Ferguson d ordre m On a et puis La différence Ŝ (m) i,n = ) S i,n i + (1 γ n i α i si m = 0 ( ) S i,n i + 1 γ n i Ŝ(m 1) i,n si m 1 Ŝ (m) i,k = 1 γ k S i,n i + γ k γ n i Ŝ (m) i,n 1 γ n i 1 γ n i R (m) i := Ŝ(m) i,n S i,n i s appelle réserve de Bornhuetter Ferguson d ordre m Les réserves de Bornhuetter Ferguson d ordre m peuvent être calculées de manière récursive par la formule R (m) i = ou bien directement par la formule R (m) i = ) (1 γ n i α i si m = 0 ( ) 1 γ n i Ŝ(m 1) i si m 1 ( 1 ( ) ) m 1 γ RLD n i i + ( )m 1 γ RBF n i i On en déduit que les estimateurs de Bornhuetter Ferguson d ordre m peuvent également être calculés directement par la formule Ŝ (m) i,k = ( 1 ( ) ) m 1 γ n i ŜLD i,k + ( )m 1 γ n i Ŝi,k BF La dernière identité permet quelques observations élémentaires:

28 26 Chapitre 3 Méthodes Basées sur les Taux Lemme (a) Pour tout i {0,1,,n} et k {n i,,n} on a Ŝ (0) i,k = ŜBF i,k et R(0) i = R BF i (b) Pour tout i {0,1,,n} et k {n i,,n} on a Ŝ (1) i,k = ŜBE i,k et R(1) i = R BE i (c) Si l on définit, pour tout i {0,1,,n}, α i := S i,n i γ n i alors on a Ŝ (m) i,k = ŜLD i,k et R(m) i = R LD i pour tout m N 0 et tout i {0,1,,n} et k {n i,,n} La même identité permet aussi d étudier le comportement asymptotique des suites des estimateurs et des réserves de Bornhuetter Ferguson d ordre m: Théorème On a lim Ŝ (m) m i,k = γ k S i,n i γ n i = ŜLD i,k et lim R (m) i = m ( 1 γ n i ) Si,n i γ n i pour tout i {0,1,,n} et k {n i,,n} Si l on choisit les taux de chain ladder comme estimateurs a priori des taux de développement, on obtient comme limites les estimateurs et réserves de chain ladder Exemple Le tableau suivant contient les réalisations des estimateurs des états terminaux, les réalisations des estimateurs de Bornhuetter Ferguson d ordre m des états terminaux et leurs limites: Année d Origine i α i Ŝ (0) i,n Ŝ (1) i,n Ŝ (2) i,n = États Terminaux Ŝ (3) i,n Ŝ (4) i,n R LD i Ŝ (5) i,n Ŝ (10) i,n Ŝi,n LD On observe que la convergence est particulièrement vite pour les années d origine les plus anciennes

29 Chapitre 4 Méthodes Basées sur les Pourcentages Dans ce chapitre on étudie la méthode des sommes marginales et quelques modèles liées au modèle de développement pour les pourcentages 41 La Méthode des Sommes Marginales La méthode des sommes marginales est basée sur le modèle multiplicatif pour les accroissements: Modèle Multiplicatif pour les Pourcentages: Il y a des paramètres α 0,α 1,,α n (0, ) et ϑ 0,ϑ 1,, ϑ n (0,1) avec n k=0 ϑ k = 1 tels que pour tout i,k {0,1,,n} E[Z i,k ] = α i ϑ k Dans le modèle multiplicatif pour les accroissements on a E[S i,n ] = α i Le paramètre α i est donc l espérance de l état terminal de l année d origine i et les paramètres ϑ 0,ϑ 1,,ϑ n forment un modèle de développement pour les pourcentages Nous supposons dans cette section que les conditions du modèle multiplicatif pour les accroissements sont satisfaites et que les paramètres sont inconnus Estimation des Paramètres À partir du modèle multiplicatif pour les accroissements on obtient les identités n i α i ϑ k = k=0 n i E[Z i,k ] k=0

30 28 Chapitre 4 Méthodes Basées sur les Pourcentages pour i {0,1,,n} et n k α i ϑ k = i=0 n k E[Z i,k ] i=0 pour k {0,1,,n} ainsi que n ϑ k = 1 k=0 L idée de la méthode des sommes marginales est de chercher des estimateurs des sommes marginales α 0, α 1,, α n et ϑ0, ϑ 1,, ϑ n comme solution des équations des sommes marginales n i k=0 α i ϑk = n i Z i,k k=0 pour i {0,1,,n} et n k i=0 α i ϑk = n k Z i,k i=0 avec k {0,1,,n} sous la condition n ϑ k = 1 k=0 Il se pose la question si une solution existe et si la solution est unique La réponse á cette question est donnée par le théorème suivant: Théorème Les estimateurs des sommes marginales sont unique sur l événement { n n k } k 1 Z j,l > 0 et sur cet événement on a et ϑ k = k=1 j=0 α i l=0 = ŜCL i,n { ĜCL 0 si k = 0 Ĝ CL k ĜCL k 1 si k 1 Ainsi le modèle multiplicatif pour les accroissements donne, en combinaison avec la méthode des sommes marginales, une justification très élémentaire de la méthode chain ladder

31 42 Le Modèle Poisson Le Modèle Poisson Le modèle Poisson est un modèle pour les nombres de sinistres Modèle Poisson: (i) La famille {Z i,k } i,k {0,1,,n} des accroissements est indépendante (ii) Il y a des paramètres α 0,α 1,,α n (0, ) et ϑ 0,ϑ 1,,ϑ n (0,1) tels que n k=0 ϑ k = 1 et pour tout i,k {0,1,,n} P Zi,k = Poi(α i ϑ k ) Nous supposons dans cette section que les conditions du modèle Poisson sont satisfaites et que les paramètres sont inconnus À cause de la condition (ii) on a E[Z i,k ] = α i ϑ k Le modèle Poisson est donc un modèle multiplicatif pour les accroissements Pour estimer les paramètres du modèle Poisson, il y a deux possibilités: La méthode des sommes marginales et la méthode du maximum de vraisemblance Méthode des Sommes Marginales Quant à l méthode des somme marginales, on sait déjà qu elle conduit aux estimateurs de chain ladder pour les états terminaux Méthode du Maximum de Vraisemblance Dans le modèle Poisson, la loi de la famille des accroissements est connue à l exception des paramètres On a [ n ] ( ) n n n P {Z i,k = z i,k } = e α iϑ k (α i ϑ k ) z i,k z i,k! i=0 k=0 i=0 k=0 Pour estimer les paramètres on peut donc utiliser la méthode du maximum de vraisemblance qui est basée sur la loi de la famille des accroissements observables donnée par [ n ] ( ) n i n n i P {Z i,k = z i,k } = e α iϑ k (α i ϑ k ) z i,k z i,k! i=0 k=0 i=0 k=0 À partir de la dernière identité on définit la fonction de vraisemblance L en posant ( ) n n i L( α 0, α 1,, α n, ϑ 0, ϑ 1,, ϑ n ) := e α i ϑ k ( α i ϑk ) Z i,k Z i,k! i=0 k=0

32 30 Chapitre 4 Méthodes Basées sur les Pourcentages On appelle estimateurs du maximum de vraisemblance chaque collection d estimateurs α 0, α 1,, α n et ϑ0, ϑ 1,, ϑ n pour laquelle toutes les dérivées partielles de la fonction de vraisemblance (ou de son logarithme) sont annulées et pour laquelle on a en plus Dans la situation présente on a n ϑ k = 1 k=0 (log(l))( α 0, α 1,, α n, ϑ 0, ϑ 1,, ϑ n ) ( ) n n i ) = α i ϑk + Z i,k (log( α i ) + log( ϑ k ) log(z i,k!) i=0 k=0 et l annulation des dérivées partielles donne n i k=0 α i ϑk = n i Z i,k k=0 pour i {0,1,,n} et n k i=0 α i ϑk = n k Z i,k i=0 pour k {0,1,,n} On a donc le résultat suivant: Théorème Les estimateurs du maximum de vraisemblance sont unique sur l événement { n n k } k 1 Z j,l > 0 k=1 j=0 l=0 et sur cet événement ils sont identiques aux estimateurs des sommes marginales En particulier, la méthode du maximum de vraisemblance conduit aux estimateurs de chain ladder pour les états terminaux 43 Le Modèle Multinomial Le modèle multinomial est un autre modèle pour les nombres de sinistres Modèle Multinomial: (i) Les accroissement prennent leurs valeurs dans l ensemble {0,1,2, } (ii) Pour tout i {0,1,,n} on a E[S i,n ] > 0

33 43 Le Modèle Multinomial 31 (iii) Il y a des paramètres ϑ 0,ϑ 1,,ϑ n (0,1) tels que n k=0 ϑ k = 1 et P Zi,0,Z i,1,,z i,n S i,n = Mult(S i,n,ϑ 0,ϑ 1,,ϑ n ) pour tout i {0,1,,n} Nous supposons dans cette section que les conditions du modèle multinomial sont satisfaites et que les paramètres sont inconnus La condition (iii) du modèle multinomial implique On a donc P Zi,k S i,n = Bin(S i,n,ϑ k ) E(Z i,k S i,n ) = S i,n ϑ k De cette identité on peut tirer deux observations intéressantes: D une part, on obtient [ ] Zi,k E = ϑ k S i,n Le paramètre ϑ k est donc, pour chaque année d origine i, exactement l espérance de la proportion des sinistres réglée dans l année de développement k D autre part, on obtient E[Z i,k ] = E[S i,n ] ϑ k Cette identité montre que le modèle multinomial est un modèle multiplicatif pour les accroissements La méthode des sommes marginales est donc applicable au modèle multinomial Une Explication du Modèle Multinomial Nous considérons le modèle suivant qui est inspiré de la théorie collective du risque: Modèle de Développement pour les Nombres de Sinistres: (i) Il existe une famille {S i } i {0,1,,n} de variables aléatoires à valeurs dans l ensemble {0,1,2, } et avec des espérances strictement positives (ii) Pour chaque i {0,1,,n} il existe une suite {K i,p } p {1,2, } de variables aléatoires à valeurs dans l ensemble {0,1,,n} qui est indépendante, identiquement repartie et indépendante de S i (iii) Il y a des paramètres ϑ 0,ϑ 1,,ϑ n (0,1) tels que P [{K i,p = k}] = ϑ k pour tout i,k {0,1,,n} et p N On interprète les variables aléatoires du modèle de développement pour les nombres de sinistres de la manière suivante: S i est le nombre de sinistres de l année d origine i K i,p est le délai avec lequel le sinistre p de l année d origine i sera réglé

34 32 Chapitre 4 Méthodes Basées sur les Pourcentages Avec cette interprétation, la variable aléatoire Z i,k := S i χ {Ki,p =k} p=1 est le nombre des sinistres de l année d origine i qui sont réglés dans l année de développement k On a et n Z i,k = S i k=0 Si l on définit maintenant P Zi,0,Z i,1,,z i,n S i = Mult(S i,ϑ 0,ϑ 1,,ϑ n ) S i,k := alors on voit que le modèle de développement pour les nombres de sinistres conduit au modèle multinomial Modèle Multinomial avec les Années d Origine Indépendantes Les conditions du modèle multinomial donnent, pour chaque année d origine i et pour toute famille {z i,k } k {0,1,,n} et s i,n := n k=0 z i,k, l identité [ n ] [ n ] P {Z i,k = z i,k } = P {Z i,k = z i,k } {S i,n = s i,n } P [{S i,n = s i,n }] k=0 = k=0 s i,n! n k=0 z i,k! n k=0 k l=0 Z i,l ϑ z i,k k P [{S i,n = s i,n }] Il suffit donc de spécifier la loi de l état terminal pour déterminer la loi (commune) de toutes les variables aléatoires d une année d origine; si, en plus, les années d origine sont indépendantes, il suffit de spécifier les lois de tous les états terminaux pour déterminer la loi (commune) de tous les accroissements Modèle Multinomial Avec les Années d Origine Indépendantes (i) Les années d origine sont indépendantes (ii) Les accroissement prennent leurs valeurs dans l ensemble {0,1,2, } (iii) Pour tout i {0,1,,n} on a E[S i,n ] > 0 (iv) Il y a des paramètres ϑ 0,ϑ 1,,ϑ n (0,1) tels que n k=0 ϑ k = 1 et P Zi,0,Z i,1,,z i,n S i,n = Mult(S i,n,ϑ 0,ϑ 1,,ϑ n ) pour tout i {0,1,,n}

35 43 Le Modèle Multinomial 33 Dans le modèle multinomial avec les années d origine indépendantes on a P [ n i=0 k=0 ] n {Z i,k = z i,k } Avec l identité établie plus tôt, on en déduit P [ n i=0 k=0 ] n {Z i,k = z i,k } = = [ n n ] P {Z i,k = z i,k } i=0 ( n s i,n! n k=0 z i,k! i=0 k=0 n k=0 ϑ z i,k k P [{S i,n = s i,n }] Si l on choisit maintenant les lois des états terminaux, alors on peut utiliser la méthode du maximum de vraisemblance pour estimer les états terminaux sur la base des accroissements observables ) Cas Particuliers Lois de Poisson: Si, dans le modèle multinomial avec les années d origine indépendantes, on choisit P Si,n := Poi(α i ) pour tout i {0,1,,n}, alors on obtient P [ n i=0 k=0 ] n {Z i,k = z i,k } = n ( n i=0 k=0 e α iϑ k (α i ϑ k ) z i,k z i,k! Dans ce cas on se retrouve dans le modèle Poisson Le théorème suivant montre que le cas des lois de Poisson est un cas assez particulier du modèle multinomial: Théorème Dans le modèle multinomial et avec α i := E[S i,n ] les conditions suivantes sont équivalentes: (a) Les années d origine sont indépendantes et on a P Si,n = Poi(α i ) pour tout i {0,1,,n} (b) La famille des accroissements est indépendante et on a P Zi,n = Poi(α i ϑ k ) ) (c) pour tout i,k {0,1,,n} La famille des accroissements est indépendante

36 34 Chapitre 4 Méthodes Basées sur les Pourcentages Lois Binomiales Négatives: Si, dans le modèle multinomial avec les années d origine indépendantes, on choisit i=0 k=0 P Si,n = Negbin(β i,η i ) pour tout i {0,1,,n}, alors on obtient [ n ] ( n n Γ(β i + ) n k=0 P {Z i,k = z i,k } = z i,k) n Γ(β i ) n k=0 z i,k! (1 η i) β i (η i ϑ k ) z i,k et puis, par sommation, [ n ] n i P {Z i,k = z i,k } = i=0 k=0 ( n Γ(β i + n i i=0 k=0 z i,k) Γ(β i ) n i k=0 z i,k! ( i=0 1 η i 1 η i + n i l=0 η iϑ l ) βi n i k=0 ( ) zi,k ) η i ϑ k 1 η i + n i l=0 η iϑ l La loi des accroissements observables est donc connue à l exception des paramètres Pour estimer les espérances α i := E[S i,n ] par la méthode du maximum de vraisemblance, il faut d abord utiliser l identité et effectuer la substitution k=0 E[S i,n ] = β i η i /(1 η i ) β i = α i (1 η i )/η i pour obtenir la fonction de vraisemblance comme fonction des paramètres α 0,α 1,,α n, ϑ 0,ϑ 1,,ϑ n, η 0,η 1,,η n Comme dans le cas Poisson, il se trouve que les estimateurs du maximum de vraisemblance pour α 0,α 1,,α n, ϑ 0,ϑ 1,,ϑ n sont identiques aux estimateurs des sommes marginales Lois Binomiales: Si, dans le modèle multinomial avec les années d origine indépendantes, on choisit P Si,n = Bin(m i,η i ) pour tout i {0,1,,n}, on peut procéder comme dans le cas des lois binomiales négatives et on obtient le même résultat

37 Chapitre 5 Modèles de Crédibilité Dans ce chapitre on étudie l application de la théorie de crédibilité au problème de réservation 51 Le Cadre Général Les modèles de crédibilité sont des modèles pour la détermination des estimateurs optimaux pour une variable aléatoire non observable Dans les modèles de crédibilité, on choisit un estimateur optimal parmi une collection d estimateurs admissibles à l aide d un critère d optimisation Comme collection d estimateurs admissibles on considère en particulier la collection des estimateurs qui sont une fonction affine linéaire des variables aléatoires observables Le Modèle de Crédibilité Élémentaire On considère des variables aléatoires observables X 1,,X m et une variable aléatoire non observable X 0 On suppose que E[X 2 i ] < pour tout i {0,1,,m} On étudie le problème d estimer X 0 par un estimateur X 0 qui dépend seulement des variables aléatoires observables X 1,,X m Pour un estimateur X 0 de X 0, la différence X 0 X 0 s appelle erreur d estimation de X 0 et l espérance [( ) 2 ] E X0 X 0 s appelle l espérance de l erreur quadratique d estimation de X 0 L espérance de l erreur quadratique d estimation est la base pour la comparaison de différents estimateurs de X 0 À cause de l identité [( ) 2 ] [ ] ( [ ]) 2 E X0 X 0 = var X0 X 0 + E X0 X 0 l espérance de l erreur quadratique d estimation de l estimateur X 0 est intimement liée à la variance de l erreur d estimation

38 36 Chapitre 5 Modèles de Crédibilité Nous considérons l espace linéaire Un estimateur m := span{1,x 1,,X m } δ (X 0 ) s appelle estimateur de crédibilité pour X 0 si δ (X 0 ) m et si ) 2 ] E [(δ (X 0 ) X 0 ) 2 ] = inf E [(Y X 0 Y m Le théorème suivant assure l existence et l unicité de l estimateur de crédibilité pour X 0 et établit aussi une propriété importante de cet estimateur: Théorème Il existe un seul estimateur de crédibilité pour X 0 et l estimateur de crédibilité pour X 0 est non biaisé Le théorème est une conséquence immédiate du théorème de projection dans les espaces de Hilbert Notation Vectorielle La notation vectorielle simplifie l étude du problème de crédibilité Nous définissons et X := µ := E[X] X 1 X m Σ := Var[X] ϱ 0 := Cov[X,X 0 ] µ 0 := E[X 0 ] σ 2 0 := var[x 0 ] Alors chaque estimateur Y m possède la forme avec a R et a R m Y = a + a X Théorème Si la variance Σ est régulière, alors l estimateur de crédibilité de X 0 peut être représenté dans la forme δ (X 0 ) = µ 0 + ϱ 0 Σ 1 (X µ) et on a ) 2 ] E [(δ (X 0 ) X 0 = σ 2 0 ϱ 0 Σ 1 ϱ 0

39 51 Le Cadre Général 37 Sous la condition de régularité de Σ on a ] var[x 0 ] = var [δ (X 0 ) X 0 [ ] + var δ (X 0 ) La variance de la variable aléatoire non observable X 0 est alors la somme de la variance de l erreur d estimation et de la variance de son estimateur de crédibilité Corollaire Si la variance Σ est régulière et si ϱ 0 = 0, alors l estimateur de crédibilité de X 0 satisfait δ (X 0 ) = µ 0 Sous les conditions du corollaire, l estimateur de crédibilité de X 0 ne dépend pas des variables aléatoires observables Considérons enfin l estimateur de crédibilité d une combinaison linéaire des deux variables aléatoires non observables: Corollaire Si la variance Σ est régulière, alors on a δ (a X + b Y ) = a δ (X) + b δ (Y ) pour toutes variables aléatoires X et Y et pour tous a,b R En fait, la linéarité de l estimateur de crédibilité peut être établie sans la condition que la variance Σ soit régulière Un Cas Particulier Important Nous considérons maintenant une classe de modèles de crédibilité dans laquelle la variance des observables est non seulement régulière mais permet aussi une représentation explicite de son inverse Condition (C) : Il y a des paramètres µ,λ R et ϕ 0,ϕ 1,,ϕ m (0, ) avec m 1 + λ ϕ 1 k > 0 tels que pour tout k,l {0,1,,m} Nous définissons le vecteur e R m par et nous posons k=1 E[X k ] = µ cov[x k,x l ] = ϕ k δ k,l + λ e := 1 1 E := e e Alors la condition (C) peut être formulée comme suit:

40 38 Chapitre 5 Modèles de Crédibilité Condition (C) : Il y a des paramètres µ,λ R et ϕ 0 (0, ) et une matrice diagonale et positive Φ R m m tels que et On a le résultat suivant: 1 + λ e Φ 1 e > 0 µ = µ e Σ = Φ + λ E ϱ 0 = λ e µ 0 = µ σ 2 0 = ϕ 0 + λ Lemme Supposons que la condition (C) soit satisfaite Alors la variance Σ est régulière avec Σ 1 = Φ 1 λ 1 + λ e Φ 1 e Φ 1 EΦ 1 Sous la condition (C) on obtient des représentations explicites de l estimateur de crédibilité δ (X 0 ) de X 0 et de l erreur d estimation: Théorème Supposons que la condition (C) soit satisfaite Alors on a et δ (X 0 ) = λ m µ + l=1 ϕ 1 l ) 2 ] E [(δ (X 0 ) X 0 = ϕ 0 + m k=1 λ ϕ 1 k 1 + λ m X k l=1 ϕ 1 l λ m λ l=1 ϕ 1 l Sous la condition (C), l estimateur de crédibilité δ (X 0 ) de X 0 est donc une moyenne pondérée de l espérance µ et des observables X 1,,X m 52 Modèles avec un Paramètre Aléatoire Dans la plupart des modèles de crédibilité, on ne considère pas seulement des variables aléatoires observables et non observables, mais aussi un paramètre aléatoire qui s appelle aussi paramètre de risque Un paramètre de risque est une fonction mesurable Λ, définie sur l espace de probabilité (Ω,F,P ) donné et à valeurs dans un espace mesurable (Ω,F ) Souvent, Λ est simplement une variable aléatoire ou un vecteur aléatoire Pour résoudre un problème de crédibilité, on a besoin des moments du premier et second ordre des variables aléatoires observables et non observables À cause des identités E[X i ] = E[E(X i Λ)]

41 53 Le Modèle de Mack 39 et cov[x i,x j ] = E[cov(X i,x j Λ)] + cov[e(x i Λ),E(X j Λ)] il suffit de formuler des conditions pour les moments conditionnels E(X i Λ) et cov(x i,x j Λ) et pour les moments non conditionnels E[E(X i Λ)], E[cov(X i,x j Λ)] et cov[e(x i Λ),E(X j Λ)] On a donc des conditions pour la loi conditionnelle des variables aléatoires observables et non observables et des conditions pour la loi non conditionnelle du paramètre de risque 53 Le Modèle de Mack Le modèle de Mack est donné par les conditions suivantes: Modèle de Mack: Il y a des variables aléatoires Λ 0,Λ 1,,Λ n avec les propriétés suivantes: (i) Les vecteurs (Z i,0,z i,1,,z i,n,λ i ) sont indépendants (ii) Il y a des fonctions mesurables m et s 2 telles que var[m(λ i )] > 0 et E[s 2 (Λ i )] > 0 et des paramètres β 0,β 1,,β n (0, ) et γ 0,γ 1,,γ n (0, ) tels que pour tout i,k,l {0,1,,n} E(Z i,k Λ i ) = m(λ i ) β k cov(z i,k,z i,l Λ i ) = s 2 (Λ i ) γ k δ k,l Le modèle de Mack est une généralisation d un modèle de DeVylder Si l on pose ϑ k := β k / n l=0 β l, alors la condition (ii) donne E[Z i,k ] = E[S i,n ] ϑ k Le modèle de Mack est alors un modèle multiplicatif La condition (i) du modèle de Mack implique que les années d origine sont indépendantes Elle implique aussi que, pour chaque année d origine i, les moments conditionnels des accroissements Z i,k sous Λ i sont identiques aux moments conditionnels des Z i,k sous Λ := (Λ 0,Λ 1,,Λ n ) En particulier, on peut remplacer les identités de la condition (ii) par les identités E(Z i,k Λ) = m(λ i ) β k cov(z i,k,z i,l Λ) = s 2 (Λ i ) γ k δ k,l Dans le modèle de Mack c est donc le vecteur Λ qui joue le rôle d un paramètre de risque

42 40 Chapitre 5 Modèles de Crédibilité Nous supposons maintenant que les conditions du modèle de Mack sont satisfaites et que les fonctions et les paramètres de ce modèle sont connus Par intégration, on obtient E[Z i,k ] = E[m(Λ i )] β k cov[z i,k,z i,l ] = E[s 2 (Λ i )] γ k δ k,l + var[m(λ i )] β k β l Pour arriver à un modèle qui satisfait à la condition (C), on définit On obtient alors X i,k := Z i,k /β k E[X i,k ] = E[m(Λ i )] cov[x i,k,x i,l ] = E[s 2 (Λ i )] (γ k /β 2 k) δ k,l + var[m(λ i )] Ces identités montrent que, pour chaque année d origine i {1,,n} et pour chaque s {n i+1,,n}, la famille {X i,0,x i,1,,x i,n i,x i,s } des accroissements normés forme un modèle qui satisfait à la condition (C) Avec on obtient µ i := E[m(Λ i )] κ i := E[s 2 (Λ i )]/var[m(λ i )] δ (X i,s ) = κ i n i κ i + βk 2 n i l=0 β2 l /γ µ i + /γ k l κ k=0 i + n i l=0 β2 l /γ X i,k l et puis δ (Z i,s ) = β s ( κ i κ i + n i l=0 β2 l /γ l µ i + n i k=0 ) β k /γ k κ i + n i l=0 β2 l /γ Z i,k l On observe que les estimateurs de crédibilité sont identiques pour tous les accroissements normés d une année d origine commune L estimateur de crédibilité δ (Z i,s ) d un accroissement Z i,s est d abord l estimateur de crédibilité sur la base des accroissements observables de l année d origine i À cause de la condition (i), il est en même temps l estimateur de crédibilité sur la base de tous les accroissements observables du triangle de développement En vue de la remarque précédente, il est clair que l on obtient les estimateurs de crédibilité de la somme des accroissements non observables d une année d origine fixe, de la somme de tous les accroissements non observables, et de la somme des accroissements d une année civile future par sommation

43 54 Le Modèle de Witting Le Modèle de Witting Le modèle de Witting est un modèle pour les nombres de sinistres: Modèle de Witting: (i) Les accroissements prennent leurs valeurs dans l ensemble {0,1,2, } (ii) Les vecteurs (Z i,0,z i,1,,z i,n ) sont indépendants (iii) On a E[S i,n ] > 0 pour tout i {0,1,,n} (iv) Il y a des paramètres ϑ 0,ϑ 1,,ϑ n (0,1) avec n k=0 ϑ k = 1 tels que P Zi,0,Z i,1,,z i,n S i,n = Mult(S i,n,ϑ 0,ϑ 1,,ϑ n ) pour tout i {0,1,,n} Le modèle de Witting est un modèle multinomial; par conséquent, c est aussi un modèle multiplicatif La condition (ii) du modèle de Witting dit que les années d origine sont indépendantes Elle implique d abord que la famille {S i,n } i {0,1,,n} des états terminaux est indépendante et puis, pour chaque année d origine i {0,1,,n}, que la loi conditionnelle des accroissements Z i,0,z i,1,,z i,n par rapport à l état terminal S i,n est identique à la loi conditionnelle par rapport au vecteur (S 0,n,S 1,n,,S n,n ) Nous supposons maintenant que les conditions du modèle de Witting sont satisfaites et que les paramètres sont connus Pour simplifier la notation, posons µ i := E[S i,n ] σ 2 i := var[s i,n ] Pour les accroissements individuels on obtient d abord et puis, par intégration, E(Z i,k S i,n ) = S i,n ϑ k cov(z i,k,z i,l S i,n ) = S i,n ϑ k δ k,l S i,n ϑ k ϑ l E[Z i,k ] = µ i ϑ k cov[z i,k,z i,l ] = µ i ϑ k δ k,l + (σ 2 i µ i ) ϑ k ϑ l Pour arriver à un modèle qui satisfait à la condition (C), on définit On obtient alors X i,k := Z i,k /β k E[X i,k ] = µ i cov[x i,k,x i,l ] = (µ i /ϑ k ) δ k,l + (σi 2 µ i )

44 42 Chapitre 5 Modèles de Crédibilité Ces identités montrent que, pour chaque année d origine i {1,,n} et pour chaque s {n i+1,,n}, la famille {X i,0,x i,1,,x i,n i,x i,s } des accroissements normés forme un modèle qui satisfait à la condition (C) Avec on obtient et puis δ (X i,s ) = δ (Z i,s ) = ϑ s ( λ i := σ 2 i µ i µ i n i λ i ϑ k µ i + λ n i i l=0 ϑ µ i + l µ k=0 i + λ n i i l=0 ϑ X i,k l µ i µ i + λ i n i l=0 ϑ l µ i + λ i µ i + λ i n i l=0 ϑ l ) n i Z i,k On observe que les estimateurs de crédibilité dépendent des accroissements observables seulement par leur somme De plus, la manière dans laquelle l expérience du passé influence les estimateurs de crédibilité est déterminée par le signe de λ i : λ i < 0 (cas binomial): Si le nombre des sinistres observables est grand, alors la réserve de crédibilité est petite λ i = 0 (cas Poisson): La réserve de crédibilité ne dépend pas du nombre des sinistres observables λ i > 0 (cas binomial négative): Si le nombre des sinistres observables est grand, alors la réserve de crédibilité est grande aussi 55 Le Modèle de Hesselager et Witting Le modèle de Hesselager et Witting est une modification du modèle de Witting dans laquelle les probabilités constantes ϑ 0,ϑ 1,,ϑ n sont remplacées par des probabilités aléatoires Modèle de Hesselager et Witting (Cas Particulier): Il y a une famille {Θ i,k } i,k {0,1,,n} de variables aléatoires et des paramètres γ 0,γ 1,,γ n (0, ) avec les propriétés suivantes: (i) Les accroissements prennent leurs valeurs dans l ensemble {0,1,2, } (ii) Les vecteurs (Z i,0,z i,1,,z i,n,θ i,0,θ i,1,,θ i,n ) sont indépendants (iii) Pour tout i {0,1,,n}, S i,n et {Θ i,k } k {0,1,,n} sont indépendants (iv) Pour tout i {0,1,,n} on a E[S i,n ] > 0 et (v) Pour tout i {0,1,,n} on a P Θi,0,Θ i,1,,θ i,n = Dirichlet(γ 0,γ 1,,γ n ) P Zi,0,Z i,1,,z i,n S i,n,θ i,0,θ i,1,,θ i,n = Mult(S i,n,θ i,0,θ i,1,,θ i,n ) Le modèle de Hesselager et Witting est un modèle multiplicatif; ceci n est pas évident mais découlera de la discussion suivante k=0

45 55 Le Modèle de Hesselager et Witting 43 Nous supposons maintenant que les conditions du modèle de Hesselager et Witting sont satisfaites et que les paramètres sont connus Pour simplifier la notation, posons µ i := E[S i,n ] σ 2 i := var[s i,n ] Pour les accroissements individuels on obtient et puis E(Z i,k S i,n,θ i,0,θ i,1,,θ i,n ) = S i,n Θ i,k cov(z i,k,z i,l S i,n,θ i,0,θ i,1,,θ i,n ) = S i,n Θ i,k δ k,l S i,n Θ i,k Θ i,l En plus, avec E(Z i,k Θ i,0,θ i,1,,θ i,n ) = µ i Θ i,k cov(z i,k,z i,l Θ i,0,θ i,1,,θ i,n ) = µ i Θ i,k δ k,l + (σ 2 i µ i ) Θ i,k Θ i,l γ := n j=0 γ k et ϑ k := γ k /γ on a Pour les accroissements on obtient alors E[Θ i,k ] = ϑ k E[Θ i,k Θ i,l ] = γ ϑ k δ k,l + γ 1 + γ ϑ kϑ l E[Z i,k ] = µ i ϑ k cov[z i,k,z i,l ] = σ2 i + µ 2 i + γµ i 1 + γ ϑ k δ k,l + γσ2 i µ 2 i γµ i 1 + γ Pour arriver à un modèle qui satisfait à la condition (C), on définit ϑ k ϑ l On obtient alors X i,k := Z i,k /β k E[X i,k ] = µ i cov[x i,k,x i,l ] = σ2 i + µ 2 i + γµ i 1 + γ 1 δ k,l + γσ2 i µ 2 i γµ i ϑ k 1 + γ

46 44 Chapitre 5 Modèles de Crédibilité Ces identités montrent que, pour chaque année d origine i {1,,n} et pour chaque s {n i+1,,n}, la famille {X i,0,x i,1,,x i,n i,x i,s } des accroissements normés forme un modèle qui satisfait à la condition (C) Avec on obtient ν i := σ 2 i + µ 2 i + γµ i λ i := γσ 2 i µ 2 i γµ i δ (X s ) = ν i n i λ i ϑ k ν i + λ n i i l=0 ϑ µ i + l ν k=0 i + λ n i i l=0 ϑ X i,k l et puis δ (Z s ) = ϑ s ( ν i ν i + λ i n i l=0 ϑ l µ i + λ i ν i + λ i n i l=0 ϑ l ) n i Z i,k k=0

47 Chapitre 6 Prévision dans les Modèles Linéaires Les modèles linéaires sont parmi les modèles de base en statistique Dans les modèles linéaires on suppose que les espérances de toutes les coordonnées d un vecteur aléatoire sont une fonction linéaire d un seul paramètre vectoriel dont la dimension est plus petite que celle du vecteur aléatoire Dans le modèle linéaire élémentaire, toutes les coordonnées du vecteur aléatoire sont supposées observables et on se propose le problème d estimer le paramètre inconnu Dans le modèle linéaire élargi, on suppose qu une partie des coordonnées du vecteur aléatoire n est pas observable et on se propose le problème d estimer les coordonnées non observables 61 Le Cadre Général Rappelons d abord l estimation du paramètre dans le modèle linéaire élémentaire Le Modèle Linéaire Élémentaire On considère un vecteur aléatoire X à valeurs dans l espace euclidien R m et posons Σ := Var[X] Le modèle linéaire pour X est donné par les conditions suivantes: Modèle Linéaire Élémentaire: (i) Il y a un paramètre β R s et une matrice A R m s avec rang(a) = s tels que E[X] = A β (ii) La matrice Σ est positive Nous supposons que les conditions du modèle linéaire élémentaire sont satisfaites, que la matrice Σ est connue et que le paramètre β est inconnu

48 46 Chapitre 6 Prévision dans les Modèles Linéaires Pour estimer le paramètre β on pourrait, en principe, utiliser n importe quel vecteur aléatoire β à valeurs dans R s qui est une fonction mesurable de X Parmi tous les estimateurs possibles, l estimateur Gauss Markov β := (A Σ 1 A) 1 A Σ 1 X de β joue un rôle très particulier Le lemme suivant donne une légitimation provisoire de l estimateur Gauss Markov: Lemme L estimateur de Gauss Markov minimise l erreur quadratique pondérée ( X A β ) Σ 1( X A β ) sur l ensemble de tous les vecteurs aléatoires β à valeurs dans R s, et c est le seul vecteur aléatoire qui possède cette propriété Du point de vue statistique, ce lemme n est pas tout à fait satisfaisant parce qu il ne contient aucune information sur les propriétés stochastiques de l estimateur de Gauss Markov Pour un estimateur β de β la différence β β s appelle erreur d estimation de β et l espérance [( ) ( )] E β β β β s appelle espérance de l erreur quadratique d estimation de β L espérance de l erreur quadratique d estimation est la base pour la comparaison de différents estimateurs de β À cause de l identité [( ) ( )] ( E β β β β = trace Var[ β ) β] + E[ β β] E[ β β] ( = trace Var[ β] ) + E[ β β] E[ β β] l espérance de l erreur quadratique d estimation d un estimateur β de β est intimement liée à la variance de l estimateur Nous considérons deux propriétés qu un estimateur de β peut posséder: Un vecteur aléatoire β à valeurs dans R s s appelle estimateur linéaire de β s il existe une matrice B telle que estimateur non biaisé de β si l identité est vraie β = BX E[ β] = β

49 61 Le Cadre Général 47 Un estimateur linéaire β = BX de β est non biaisé si et seulement si BA = I et pour chaque estimateur non biaisé β de β on a [( ) ( )] E β β β β ( = trace Var[ β] ) Pour deux vecteurs aléatoires Y et Z à valeurs dans R s, on dit que la variance de Y est plus petite que la variance de Z si la matrice Var[Z] Var[Y] est positive, et dans ce cas on a trace(var[y]) trace(var[z]) L estimateur de Gauss Markov est évidemment un estimateur linéaire et non biaisé de β De plus, on a le fameux théorème suivant: Théorème de Gauss Markov Parmi tous les estimateurs linéaires et non biaisés de β, l estimateur de Gauss Markov possède la variance la plus petite et il est le seul estimateur qui possède cette propriété Le théorème de Gauss Markov peut être reformulé avec l espérance de l erreur quadratique d estimation au lieu de la variance de l estimateur: Corollaire Parmi tous les estimateurs linéaires et non biaisés de β, l estimateur de Gauss Markov possède la plus petite espérance de l erreur quadratique d estimation, et il est le seul estimateur qui possède cette propriété Ainsi le rôle exceptionnel de l estimateur de Gauss Markov pour l estimation de β est complètement clarifié Le Modèle Linéaire Élargi Considérons maintenant un vecteur aléatoire X à valeurs dans R m dont seules les premières m 1 coordonnées sont observables et les autres m 2 := m m 1 coordonnées sont non observables On écrit donc ( ) X1 X = et on suppose que X 1 est observable et que X 2 est non observable Avec X 2 Σ 11 := Var[X 1 ] Σ 12 := Cov[X 1,X 2 ] Σ 21 := Cov[X 2,X 1 ] Σ 22 := Var[X 2 ] on a alors var[x] = ( Σ11 Σ 12 Σ 21 Σ 22 ) On élargit le modèle linéaire élémentaire comme suit:

50 48 Chapitre 6 Prévision dans les Modèles Linéaires Modèle Linéaire Élargi: (i) Il y a un paramètre β R s et des matrices A 1 R m 1 s et A 2 R m 2 s avec rang(a 1 ) = s tels que E [( X1 X 2 (ii) La matrice Σ 11 est positive )] = ( A1 Nous supposons maintenant que les conditions du modèle linéaire élargi sont satisfaites, que les matrices Σ 11 et Σ 21 sont connues et que le paramètre β est inconnu Dans le modèle linéaire élargi, le vecteur aléatoire X 2 est non observable Pour cette raison, l estimation du paramètre β doit être basée sur le vecteur aléatoire X 1 au lieu de X Dans le modèle linéaire élargi, il y a aussi le problème d estimer X 2 sur la base de X 1 Il se montre que ces deux problèmes d estimation peuvent être traités de manières complètement analogues Au lieu de considérer seulement les problèmes d estimation de β et de X 2, on étudie tout de suite le problèmes d estimer Cβ avec C R r s et d estimer DX 2 avec D R r m 2 A 2 ) β Considérons d abord l estimation de Cβ par un vecteur aléatoire R r qui est une fonction mesurable de X 1 Ŷ à valeurs dans Un vecteur aléatoire Ŷ à valeurs dans Rr s appelle estimateur linéaire de Cβ s il existe une matrice Q telle que estimateur non biaisé de Cβ si on a Ŷ = QX 1 E[Ŷ] = Cβ Un estimateur linéaire Ŷ = QX 1 de Cβ est non biaisé si et seulement si QA 1 = C Comme critère d optimisation on utilise l espérance de l erreur quadratique d estimation de Ŷ ) )] E [(Ŷ Cβ (Ŷ Cβ On a ) )] E [(Ŷ Cβ (Ŷ Cβ (Var[Ŷ ) = trace Cβ] + E[Ŷ Cβ] E[Ŷ Cβ] (Var[Ŷ] ) = trace + E[Ŷ Cβ] E[Ŷ Cβ] Le vecteur aléatoire β := (A 1Σ 1 11 A 1 ) 1 A 1Σ 1 11 X 1

51 61 Le Cadre Général 49 s appelle estimateur de Gauss Markov de β et Y (Cβ) := Cβ s appelle estimateur de Gauss Markov de Cβ Théorème de Gauss Markov L estimateur de Gauss Markov de Cβ est un estimateur linéaire et non biaisé de Cβ Parmi tous les estimateurs linéaires et non biaisés de Cβ, l estimateur de Gauss Markov minimise l espérance de l erreur quadratique d estimation et il est le seul estimateur qui possède cette propriété Passons à l estimation de DX 2 Un vecteur aléatoire Ŷ à valeurs dans Rr s appelle estimateur linéaire de DX 2 s il existe une matrice Q telle que estimateur non biaisé de DX 2 si on a Ŷ = QX 1 E[Ŷ] = E[DX 2] Un estimateur linéaire Ŷ = QX 1 de DX 2 est non biaisé si et seulement si QA 1 = DA 2 Comme critère d optimisation on utilise l espérance de l erreur quadratique d estimation de Ŷ ) )] E [(Ŷ DX2 (Ŷ DX2 On a ) )] E [(Ŷ DX2 (Ŷ DX2 Le vecteur aléatoire ( ) = trace Var[Ŷ DX 2] + E[Ŷ DX 2] E[Ŷ DX 2] X 2 := A 2 β + Σ 21 Σ 1 11 (X 1 A 1 β ) s appelle estimateur de Gauss Markov de X 2 et Y (DX 2 ) := DX 2 s appelle estimateur de Gauss Markov de DX 2 Théorème de Gauss Markov L estimateur de Gauss Markov de DX 2 est un estimateur linéaire et non biaisé de DX 2 Parmi tous les estimateurs linéaires et non biaisés de DX 2, l estimateur de Gauss Markov minimise l espérance de l erreur quadratique d estimation et il est le seul estimateur qui possède cette propriété On termine cette section avec un cas particulier: Lemme Soit Cov[X 1,X 2 ] = O Alors on a pour tout D R r m 2 et cov[y (DX 2 ),DX 2 ] = O Y (DX 2 ) = DA 2 β

52 50 Chapitre 6 Prévision dans les Modèles Linéaires 62 Adaptation à la Réservation Le modèle linéaire pour la réservation est le modèle suivant: Modèle Linéaire pour la Réservation: Il y a un paramètre β R s et une famille {g i,k } i,k {0,1,,n} de vecteurs dans R s tels que pour tout i,k {0,1,,n} E[Z i,k ] = g i,kβ Nous supposons dans cette section que les conditions du modèle linéaire pour la réservation sont satisfaites et que le paramètre β est inconnu Soit m := (n + 1) 2 En posant X h := Z i,k a h := g i,k avec (2n + 3 i) i + k + 1 si i + k n 2 h := n(n+1) + i(i+1) + k + 1 si i + k > n 2 on obtient un vecteur aléatoire ( ) X1 X = composé par les accroissements réarrangés tel que X 1 est observable et X 2 est non observable, et une matrice ( ) A1 A = dont les lignes sont les transposées des vecteurs a h telle que [( )] ( ) X1 A1 E = β X 2 A 2 Alors les conditions du modèle linéaire élargi sont satisfaites 63 Le Modèle de Mack X 2 A 2 Le modèle linéaire de Mack est le modèle suivant: Modèle de Mack: Il y a des paramètres ν 0,ν 1,,ν n (0, ), β 0,β 1,, β n (0, ) et σ0,σ 2 1, 2,σn 2 (0, ) tels que [ ] Zi,k E = β k ν i [ Zi,k cov, Z ] j,l = σ2 k δ i,j δ k,l ν i ν j ν i pour tout i,j,k,l {0,1,,n}

53 63 Le Modèle de Mack 51 Il y a au moins deux interprétations des paramètres ν 0,ν 1,,ν n du modèle de Mack: ν i est la somme des primes pour l année d origine i ν i est le nombre des contrats dans l année d origine i Nous supposons dans cette section que les conditions du modèle de Mack sont satisfaites, que les paramètres ν 0,ν 1,,ν n sont connus et que les autres paramètres sont inconnus Pour tout i,k {0,1,,n} on a E[Z i,k ] = ν i β k cov[z i,k,z j,l ] = ν i σ 2 k δ i,j δ k,l Posons s := n + 1 et β := β 0 β 1 β n Alors il existe pour tout i,k {0,1,,n} un vecteur g i,k R s tel que E[Z i,k ] = g i,kβ Cela donne E [( X1 X 2 )] = ( A1 A 2 ) β avec A 1 R m 1 s et A 2 R m 2 s En plus, on a rang(a 1 ) = s et la matrice Σ 11 := Var[X 1 ] est une matrice diagonale et régulière Le modèle de Mack satisfait donc aux conditions du modèle linéaire élargi avec Σ 21 := Cov[X 2,X 1 ] = O On s intéresse aux estimateurs de Gauss Markov des accroissements non observables Z i,k, de la somme n k=n i+1 Z i,k des accroissements non observables de l année d origine i et de la somme n n i=0 k=n i+1 Z i,k de tous les accroissements non observables Parce que Σ 21 = O, il suffit de déterminer l estimateur de Gauss Markov du paramètre β L estimateur de Gauss Markov β de β sur la base de X 1 minimise l erreur quadratique pondérée (X 1 A 1 β) Σ 1 11 (X 1 A 1 β)

54 52 Chapitre 6 Prévision dans les Modèles Linéaires Parce que la matrice Σ 11 est une matrice diagonale, l erreur quadratique pondérée est égale à la somme double n n k k=0 i=0 1 ν i σ 2 k ( Z i,k ν i βk ) 2 = n 1 n k σ 2 k=0 k i=0 1 ( ) 2 Z i,k ν i βk ν i En minimisant chacune des sommes intérieures du côté droit de l équation obtient β0 β 1 β := avec β k = β n n k i=0 Z i,k n k i=0 ν i On remarque que la connaissance des paramètres σ 2 0,σ 2 1,,σ 2 n n est pas nécessaire pour déterminer l estimateur de Gauss Markov du paramètre β Il est maintenant facile de déterminer les estimateurs de Gauss Markov des accroissements non observables et de leurs sommes: À cause de Σ 21 = O on a X 2 = A 2 β Pour tout i,k {1,,n} tels que i + k > n il existe un vecteur unitaire e i,k tel que Z i,k = e i,k X 2 et on obtient Y (Z i,k ) = e i,ka 2 β Puisque g i,k β = E[Z i,k] = E[Y (Z i,k )] = e i,k A 2β on a g i,k = e i,k A 2 et donc Y (Z i,k ) = g i,kβ Parce que ν i β k = E[Z i,k ] = E[Y (Z i,k )] = g i,k β cette dernière équation donne Y (Z i,k ) = ν i β k Pour chaque année d origine i {1,,n} on a ( n ) n Y Z i,k = k=n i+1 k=n i+1 ν i β k Pour la somme de tous les accroissements non observables on a ( n ) n n n Y Z i,k = ν i βk i=1 k=n i+1 k=1 i=n k+1 À l aide des paramètres σ 2 0,σ 2 1,,σ 2 n on peut enfin déterminer l espérance de l erreur quadratique d estimation dans les trois cas

55 Bibliographie Bauer, H [1991]: Wahrscheinlichkeitstheorie Berlin: DeGruyter Bauer, H [1992]: Maß und Integrationstheorie 2 Auflage Berlin: DeGruyter Benktander G [1976]: An approach to credibility in calculating IBNR for casualty excess reinsurance The Actuarial Review April, 7 Billingsley, P [1995]: Probability and Measure Third Edition New York Chichester: Wiley Bornhuetter RL & Ferguson RE [1972]: The Actuary and IBNR Proc CAS 59, DeVylder F [1982]: Estimation of IBNR claims by credibility theory Insurance Math Econom 1, Farny D et al (ed) [1988]: Handwörterbuch der Versicherung Karlsruhe: Verlag Versicherungswirtschaft Hachemeister CA & Stanard JN [1975]: IBNR claims count estimation with static lag functions Unpublished Hamer MD [1999]: Loss prediction by generalized least squares Discussion of Halliwell (1996) Proc CAS 86, Hess KT & Schmidt KD [1994]: A remark on modelling IBNR claim numbers with random delay pattern Dresdner Schriften zur Versicherungsmathematik 4/1994 Hess KT & Schmidt KD [2001]: Credibility Modelle in Tarifierung und Reservierung Allg Statist Archiv 85, Hess KT & Schmidt KD [2002]: A comparison of models for the chain ladder method Insurance Math Econom 31, Hesselager O & Witting T [1988]: A credibility model with random fluctuations in delay probabilities for the prediction of IBNR claims ASTIN Bull 18, Institute of Actuaries (ed) [1989]: Claims Reserving Manual London: The Institute of Actuaries Lorenz H & Schmidt KD [1999]: Grossing up, chain ladder and marginal sum estimation Blätter DGVM 24, Mack T [1990]: Improved estimation of IBNR claims by credibility theory Insurance Math Econom 9, Mack T [1991]: A simple parametric model for rating automobile insurance or estimating IBNR claims reserves ASTIN Bull 21, Mack T [1993]: Distribution free calculation of the standard error of chain ladder reserve estimates ASTIN Bull 23, Mack T [1994a]: Which stochastic model is underlying the chain ladder method? Insurance Math Econom 15, Mack T [1994b]: Measuring the variability of chain ladder reserves In: Casualty Actuarial Society Forum Spring 1994, vol 1, pp

56 54 Bibliographie Mack T [1997]: Schadenversicherungsmathematik Karlsruhe: Verlag Versicherungswirtschaft Mack T [2000]: Credible claims reserves The Benktander method ASTIN Bull 30, Mack T & Venter G [2000]: A comparison of stochastic models that reproduce chain ladder reserve estimates Insurance Math Econom 26, Norberg R [1986]: A contribution to modelling of IBNR claims Scand Actuar J, Radtke M & Schmidt KD (ed) []: Handbuch der Schadenreservierung En préparation Renshaw AE & Verrall R [1998]: A stochastic model for the chain ladder method British Actuarial J 14, Schmidt KD [1996]: Lectures on Risk Theory Stuttgart: Teubner Schmidt KD [1998]: Prediction in the linear model A direct approach Metrika 48, Schmidt KD [1999a]: Non optimal prediction by the chain ladder method Insurance Math Econom 21, Schmidt KD [1999b]: Chain ladder prediction and asset liability management Blätter DGVM 24, 1 9 Schmidt KD [1999c]: Reservierung für Spätschäden Modellierung am Beispiel des Chain Ladder Verfahrens Allg Statist Archiv 83, Schmidt KD [1999d]: Loss prediction by generalized least squares Discussion of Halliwell (1996) Proc CAS 86, Schmidt KD [2001]: Versicherungsmathematik Berlin Heidelberg New York: Springer Schmidt KD [2002]: A note on the overdispersed Poisson family Insurance Math Econom 30, Schmidt KD & Schnaus A [1996]: An extension of Mack s model for the chain ladder method ASTIN Bull 26, Schmidt KD & Wünsche A [1998]: Chain ladder, marginal sum and maximum likelihood estimation Blätter DGVM 23, Straub E [1988]: Non Life Insurance Mathematics Berlin Heidelberg New York: Springer Taylor GC [1986]: Claims Reserving in Non Life Insurance Amsterdam New York Oxford: North Holland Taylor GC [2000]: Loss Reserving An Actuarial Perspective Boston Dordrecht London: Kluwer Van Eeghen J [1981]: Loss Reserving Methods Rotterdam: Nationale Nederlanden Verrall RJ [2000]: An investigation into stochastic claims reserving models and the chain ladder technique Insurance Math Econom 26, Verrall RJ & England PD [2000]: Comments on A comparison of stochastic models that reproduce chain ladder reserve estimates by Mack and Venter Insurance Math Econom 26, Witting T [1987]: Kredibilitätsschätzungen für die Anzahl IBNR Schäden Blätter DGVM 18, 45 58

Première partie. Introduction à la méthodes des différences finies

Première partie. Introduction à la méthodes des différences finies Première partie Introduction à la méthodes des différences finies 5 7 Introduction Nous allons présenter dans cettte partie les idées de base de la méthode des différences finies qui est sans doute la

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Classification non supervisée

Classification non supervisée AgroParisTech Classification non supervisée E. Lebarbier, T. Mary-Huard Table des matières 1 Introduction 4 2 Méthodes de partitionnement 5 2.1 Mesures de similarité et de dissimilarité, distances.................

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

RO04/TI07 - Optimisation non-linéaire

RO04/TI07 - Optimisation non-linéaire RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels

Plus en détail

Licence à distance Chapitre V : Equations différentielles. Méthodes numériques à un pas.

Licence à distance Chapitre V : Equations différentielles. Méthodes numériques à un pas. Licence à distance Chapitre V : Equations différentielles. Méthodes numériques à un pas. M. Granger Table des matières 1 Rappels sur le cours d équations différentielles 2 1.1 Généralités..........................................

Plus en détail

Analyse et Commande des Systèmes Non Linéaires

Analyse et Commande des Systèmes Non Linéaires Analyse et Commande des Systèmes Non Linéaires J. Lévine Centre Automatique et Systèmes école des Mines de Paris 35 rue Saint Honoré 77305 Fontainebleau Cedex E-mail : [email protected] Mars 2004 2

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Apprentissage non paramétrique en régression

Apprentissage non paramétrique en régression 1 Apprentissage non paramétrique en régression Apprentissage non paramétrique en régression Résumé Différentes méthodes d estimation non paramétriques en régression sont présentées. Tout d abord les plus

Plus en détail

Chapitre 2. Matrices

Chapitre 2. Matrices Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce

Plus en détail

FONDEMENTS DES MATHÉMATIQUES

FONDEMENTS DES MATHÉMATIQUES FONDEMENTS DES MATHÉMATIQUES AYBERK ZEYTİN 1. DIVISIBILITÉ Comment on peut écrire un entier naturel comme un produit des petits entiers? Cette question a une infinitude d interconnexions entre les nombres

Plus en détail

La transformée de Fourier sur un groupe fini et quelques-unes de ses applications. Elise Raphael Semestre d automne 2009-2010

La transformée de Fourier sur un groupe fini et quelques-unes de ses applications. Elise Raphael Semestre d automne 2009-2010 La transformée de Fourier sur un groupe fini et quelques-unes de ses applications Elise Raphael Semestre d automne 009-010 1 Contents 1 Transformée de Fourier sur un groupe fini 3 1.1 Dual d un groupe

Plus en détail

Cours de Physique statistique

Cours de Physique statistique Licence de Physique Fondamentale et Appliquée Année 2014-2015 Parcours Physique et Applications UNIVERSITÉ PARIS-SUD mention Physique ORSAY Cours de Physique statistique Compilation de textes de A. Abada,

Plus en détail

Equations aux Dérivées Partielles

Equations aux Dérivées Partielles Equations aux Dérivées Partielles Tony Lelièvre 29-2 Après avoir considéré dans le capitre précédent des équations d évolution pour des fonctions ne dépendant que du paramètre temps, nous nous intéressons

Plus en détail

Traitement numérique du signal. Première partie : Bases mathématiques

Traitement numérique du signal. Première partie : Bases mathématiques 1 Traitement numérique du signal. Première partie : Bases mathématiques J.Idier H. Piet-Lahanier G. Le Besnerais F. Champagnat Première version du document : 1993 Date de la dernière remise à jour : mars

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

IV- Equations, inéquations dans R, Systèmes d équations

IV- Equations, inéquations dans R, Systèmes d équations IV- Equations, inéquations dans R, Systèmes d équations 1- Equation à une inconnue Une équation est une égalité contenant un nombre inconnu noté en général x et qui est appelé l inconnue. Résoudre l équation

Plus en détail

Logique. Plan du chapitre

Logique. Plan du chapitre Logique Ce chapitre est assez abstrait en première lecture, mais est (avec le chapitre suivant «Ensembles») probablement le plus important de l année car il est à la base de tous les raisonnements usuels

Plus en détail

Les offres non compétitives dans les enchères du Trésor*

Les offres non compétitives dans les enchères du Trésor* ANNALES D ÉCONOMIE ET DE STATISTIQUE. N 70 2003 Les offres non compétitives dans les enchères du Trésor* Raphaële PRÉGET RÉSUMÉ. L objectif de cet article est d analyser le mécanisme des offres non compétitives

Plus en détail

Statistique Descriptive Multidimensionnelle. (pour les nuls)

Statistique Descriptive Multidimensionnelle. (pour les nuls) Publications de l Institut de Mathématiques de Toulouse Statistique Descriptive Multidimensionnelle (pour les nuls) (version de mai 2010) Alain Baccini Institut de Mathématiques de Toulouse UMR CNRS 5219

Plus en détail

Marc HINDRY. Introduction et présentation. page 2. 1 Le langage mathématique page 4. 2 Ensembles et applications page 8

Marc HINDRY. Introduction et présentation. page 2. 1 Le langage mathématique page 4. 2 Ensembles et applications page 8 COURS DE MATHÉMATIQUES PREMIÈRE ANNÉE (L1) UNIVERSITÉ DENIS DIDEROT PARIS 7 Marc HINDRY Introduction et présentation. page 2 1 Le langage mathématique page 4 2 Ensembles et applications page 8 3 Groupes,

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

Calcul Stochastique pour la finance. Romuald ELIE

Calcul Stochastique pour la finance. Romuald ELIE Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis

Plus en détail

Systèmes asservis non linéaires

Systèmes asservis non linéaires Christian JUTTEN Systèmes asservis non linéaires Université Joseph Fourier - Polytech Grenoble Cours de troisième année du département 3i Options Automatique Août 2006 1 Table des matières 1 Introduction

Plus en détail

Mesure, impact des politiques et estimation. Programme de formation MIMAP. Remerciements

Mesure, impact des politiques et estimation. Programme de formation MIMAP. Remerciements Pauvreté, bienêtre social et équité : Mesure, impact des politiques et estimation par JeanYves Duclos Département d économique et CRÉFACIRPÉE, Université Laval, Canada Programme de formation MIMAP Remerciements

Plus en détail

Qu est-ce qu une probabilité?

Qu est-ce qu une probabilité? Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont

Plus en détail

Une décomposition du non-emploi en France

Une décomposition du non-emploi en France MARCHÉ DU TRAVAIL Une décomposition du non-emploi en France Guy Laroque et Bernard Salanié* «Grande est notre faute, si la misère de nos pauvres découle non pas de lois naturelles, mais de nos institutions».

Plus en détail

COURS DE MÉCANIQUE STATISTIQUE UNIVERSITÉ LYON-1. Monique Combescure. 3 janvier 1970

COURS DE MÉCANIQUE STATISTIQUE UNIVERSITÉ LYON-1. Monique Combescure. 3 janvier 1970 COURS DE MÉCANIQUE STATISTIQUE MASTER PREMIÈRE ANNÉE UNIVERSITÉ LYON-1 Monique Combescure 3 janvier 1970 TABLE DES MATIÈRES I] QUELQUES NOTIONS ÉLÉMENTAIRES EN STATISTIQUE I-1 Variables aléatoires I-2

Plus en détail

(Ir)réversibilité et entropie

(Ir)réversibilité et entropie Séminaire Poincaré XV Le Temps (2010) 17 75 Séminaire Poincaré (Ir)réversibilité et entropie Cédric Villani Université de Lyon & Institut Henri Poincaré 11 rue Pierre et Marie Curie 75231 Paris Cedex 05,

Plus en détail

Pourquoi les ménages à bas revenus paient-ils des loyers de plus en plus élevés?

Pourquoi les ménages à bas revenus paient-ils des loyers de plus en plus élevés? LOGEMENT Pourquoi les ménages à bas revenus paient-ils des loyers de plus en plus élevés? L incidence des aides au logement en France (1973-2002) Gabrielle Fack* Depuis la fin des années 1970, les aides

Plus en détail