Modélisation du risque opérationnel Approche Bâle avancée



Documents pareils
TABLE DES MATIERES. C Exercices complémentaires 42

Mesure et gestion des risques d assurance

QUANTIFICATION DU RISQUE

De la mesure à l analyse des risques

Allocation Robuste et Restrictions sur les Contributions au Risque

Le risque Idiosyncrasique

De la mesure à l analyse des risques

Le risque opérationnel - Journées IARD de l'institut des Actuaires

Modélisation aléatoire en fiabilité des logiciels

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

FIMA, 7 juillet 2005

La mesure et la gestion des risques bancaires : Bâle II et les nouvelles normes comptables

Best Styles ou comment capturer au mieux les primes de risque sur les marchés d actions

Introduction à l approche bootstrap

Note d orientation : La simulation de crise Établissements de catégorie 2. Novembre This document is also available in English.

Étude des résultats des investisseurs particuliers sur le trading de CFD et de Forex en France

Validation probabiliste d un Système de Prévision d Ensemble

Principe de symétrisation pour la construction d un test adaptatif

Incertitude et variabilité : la nécessité de les intégrer dans les modèles

25 / 06 / 2008 APPLICATION DE LA RÉFORME BÂLE II

Résumé des communications des Intervenants

Quels liens entre les modèles et la réalité? Mathilde Jung Université d été / Lundi 9 Juillet 2012 AG2R LA MONDIALE

COLLOQUE SUR LA RETRAITE ET LES PLACEMENTS AU QUÉBEC L INVESTISSEMENT GUIDÉ PAR LE PASSIF

Arbres binaires de décision

Établissement des taux d actualisation fondés sur la meilleure estimation aux fins des évaluations de provisionnement sur base de continuité

Où investir en 2014? Grand colloque sur la gestion des actifs des caisses de retraite

Méthodes d apprentissage statistique «Machine Learning»

Analyse des risques financiers

La nouvelle planification de l échantillonnage

PROFIL DE RISQUE INTÉGRÉ DE RENTES DU MOUVEMENT DESJARDINS (RRMD)

Critères de validation des modèles internes en assurance vie :

Value at Risk. CNAM GFN 206 Gestion d actifs et des risques. Grégory Taillard. 27 février & 13 mars 20061

INF6304 Interfaces Intelligentes

Liste des notes techniques... xxi Liste des encadrés... xxiii Préface à l édition internationale... xxv Préface à l édition francophone...

Débouchés professionnels

Sommaire. Rentabilité du retour d une franchise de baseball de la Ligue majeure de baseball à Montréal (les «Expos»)

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Modélisation et étude d un système de trading directionnel diversifié sur 28 marchés à terme

Chapitre 3 : INFERENCE

Solution logicielle pour le pilotage et l ERM. Journées d études IARD 26 mars mars 2010

Mémoire d actuariat - promotion complexité et limites du modèle actuariel, le rôle majeur des comportements humains.

MCMC et approximations en champ moyen pour les modèles de Markov

Exercices M1 SES Ana Fermin ( fermin.perso.math.cnrs.fr/ ) 14 Avril 2015


Série Smart Beta Partie 2 : Smart ne rime pas toujours avec intelligence

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Régionalisation des régimes de perturbations et implications pour l aménagement dans un contexte de changement climatique

Banque le Choix du Président

Les exploitations de grandes cultures face à la variabilité de leurs revenus : quels outils de gestion des risques pour pérenniser les structures?

Optimisation multi-critère pour l allocation de ressources sur Clouds distribués avec prise en compte de l énergie

Les débats sur l évolution des

Links Consulting. Support de présentation. L expertise métier au service de la transformation et de la performance

Capital économique en assurance vie : utilisation des «replicating portfolios»

Atelier sur l Analyse des Réseaux Madagascar

Asset Quality Review

Développements récents de la méthode des scores de la Banque de France

INDICES DE PRIX EXPÉRIMENTAUX DES SERVICES FINANCIERS

Étude des Corrélations entre Paramètres Statiques et Dynamiques des Convertisseurs Analogique-Numérique en vue d optimiser leur Flot de Test

Banque Zag. Troisième pilier de Bâle II et III Exigences de divulgation. 31 décembre 2013

Finance, Navier-Stokes, et la calibration

Comment piloter une entreprise d assurance IARD sous Solvabilité II?

Continent africain / Evaluation de préjudice Les économistes apportent des réponses à 360 degrés lors des procédures litigieuses

Practice Finance & Risk Management BCBS 239 enjeux et perspectives. Equinox-Cognizant, tous droits réservés

Ce document synthétise les principaux aspects de DayTrader Live, le service le plus haut de gamme de DayByDay.

L'évaluation par les pairs dans un MOOC. Quelle fiabilité et quelle légitimité? Rémi Bachelet Ecole Centrale de Lille 24 novembre 2014, Université

Le montant des garanties constituées aux fins du STPGV est-il excessif?

Les nouveaux ratios prudentiels applicables aux établissements de crédit au titre du droit communautaire

Journées d études IARD

Secure Advantage Revenus Garantis

Par : Abdeljalil Chaouki, Conseiller de maintenance industrielle

Texte Agrégation limitée par diffusion interne

D assurance-vie avec participation

CAISSE REGIONALE DU CREDIT AGRICOLE MUTUEL D AQUITAINE

Probabilités III Introduction à l évaluation d options

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

LES MODELES DE SCORE

Introduction au datamining

Forbearance et Non-Performing Exposures

TP N 57. Déploiement et renouvellement d une constellation de satellites

Régime de retraite de la Corporation de l École Polytechnique ASSEMBLÉE ANNUELLE 14 JUIN 2010

FINANCEMENT OPTIMAL DE LA SOLVABILITE D UN ASSUREUR

Données longitudinales et modèles de survie

COMMENTAIRE. Services économiques TD LES VENTES DE VÉHICULES AU CANADA DEVRAIENT DEMEURER ROBUSTES, MAIS LEUR CROISSANCE SERA LIMITÉE

A.3 Les méthodes : L applicabilité

distribution quelconque Signe 1 échantillon non Wilcoxon gaussienne distribution symétrique Student gaussienne position

Dérivés Financiers Contrats à terme

RAPPORT D'ÉVALUATION DU CENTRE INTERUNIVERSITAIRE DE RECHERCHE EN ANALYSE DES ORGANISATIONS (CIRANO)

Laboratoire 4 Développement d un système intelligent

INVESTMENT REGULATIONS R In force October 1, RÈGLEMENT SUR LES INVESTISSEMENTS R En vigueur le 1 er octobre 2001

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

Soutenance de stage Laboratoire des Signaux et Systèmes

Quantitative Trading Fund - 1 -

G&R Europe Distribution 5

Méthodologie du calcul de la VaR de marché : revue de l approche basée sur des simulations historiques

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

IFT 6261: L Analytique Web. Fares Aldik, Consultant principal, Analytique Web et optimisation Bell Marchés Affaires services d expérience client

APERÇU DU FONDS Fonds Iman de Global, série A au 13 avril 2015

La gestion des données de référence ou comment exploiter toutes vos informations

ING Turbos. Faible impact de la volatilité. Evolution simple du prix

Transcription:

Modélisation du risque opérationnel Approche Bâle avancée Université Laval Conférence LABIFUL Département de Finance et Assurance 1 Mars, 2013. Ridha Mahfoudhi, Ph.D. Senior Manager Quantitative Analytics, TD Bank

Préambule Le risque opérationnel? Le risque de perte encourue lors de l exécution des opérations. L environnement d affaires et les contrôles internes sont deux facteurs importants qui aggravent ou mitigent l exposition. Les instituions bancaires selon les accords de Bâle sont tenues de maintenir une tranche de capital pour couvrir le risque opérationnel non anticipé (valeur à risque, VaR). Pour se qualifier au régime de l approche de mesure avancée (AMA), les banques doivent développer un système statistique avancé pour capturer et mesurer le risque opérationnel. Le risque opérationnel souvent dépasse le risque de marché en termes de capital à détenir, surtout dans le cas des banques commerciales.

Contexte réglementaire La qualification à la AMA requière un investissement considérable en termes de budget, de temps, et de ressources. Les motivations : économie de capital par rapport au régime de mesure standard, un meilleur contrôle de l exposition via un modèle de capital dynamique (sensibilité aux contrôles, incitatif de réduction de l exposition), répondre aux attentes des régulateurs (les qualifications pour autres types de risque sont implicitement difficiles à obtenir en cas de soumission partielle qui n inclut pas tous les types de risque). Aucune banque canadienne n a obtenu pour le moment l approbation finale. Aux USA, la situation est similaire. Les banques anticipent une période de test (parallel run) de quelques années avant d avoir l approbation. En Europe, quelques banques ont été approuvées. Les banques canadiennes qui opèrent dans plusieurs juridictions, (TD, RBC), sont exposées à plusieurs agences de réglementation (OSFI au Canada et OCC-Fed aux USA), ce qui aggrave la complexité du processus. Les attentes des régulateurs peuvent être flous et des fois non réalistes.

Anatomie des pertes Les pertes sont classées selon deux dimensions: Ligne d affaire et Type d évènement. Ligne d affaire Retail Commercial Exposition Faible - Modérée Élevée La mesure de risque doit être ciblée selon la ligne d affaire (quelques assemblements entre lignes similaires sont envisageables) pour des raisons d équité d allocation de capital et afin de mieux gérer l incitatif de réduction d exposition (par les contrôles internes). Corp. Fin, Asset Mgt, Trading Brokerage Modérée - Élevée Faible Par exemple, mixer le Retail avec le Commercial n est pas une pratique à adopter. Corporate office Faible

Anatomie des pertes (p. 2) Les pertes sont classées selon deux dimensions: Ligne d affaire et Type d évènement. Type de perte Magnitude Exécution (EDPM) Modérée - Élevée Litiges (CPBP) Élevée Exemples: - Poursuites légales (Subprime), - Fraudes interne: Rogue trader (Soc. Générale), - Erreurs d exécution, - Fraude externe (Ponzi scheme, cas Rothstein en Floride vs. TD), Fraudes (internes & externes) Défaillances, Accidents (BDSF, EPWS) Dommages aux actifs physiques (DPA) Modérée - Élevée Faible Faible Les pertes se chiffrent entre quelques dollars et quelques milliards de dollars!!

AMA Le système Base Model: Total Loss Distributions Internal Loss Data UoM Structure Loss Scenarios Benchmark Model: Loss & Scenarios based Distributions Diversification, VaR

Collecte de données Comparaison: Risque de marché : cotations du marché! Risque de crédit : Les prêts sont encadrés par le système comptable. Les pertes sont systématiquement captés. Risque opérationnel : La collecte des pertes est spontanée : le système comptable absorbe les pertes opérationnelles en termes de dollars, mais ne garantie par leur classification systématique. Souvent un seul événement de perte fait l objet de plusieurs dizaines de transactions comptables dispersées dans différents comptes vagues. La collecte des pertes opérationnelles est l objet d une collecte tronquée : Les pertes sont enregistrées si leur magnitude dépasse un seuil (Collection Threshold) souvent défini à 10K$. Les données sont réputées d être incomplets (biais de sous-collection des petites pertes) et leur précision est biaisée par leur magnitude (plus de précision au sujet des pertes élevées). La classification des pertes dans les différentes catégories de types d événement est sujet à des interprétations, la marge d erreur est non nulle.

AMA Le système Base Model: Total Loss Distributions Internal Loss Data UoM Structure Loss Scenarios Benchmark Model: Loss & Scenarios based Distributions Diversification, VaR

Les unités de mesure (UdM) Les données historiques sont par défaut regroupées dans des catégories ligne d affaire/type d événement (BL/ET). Cependant, la taille des échantillons pourrait être très faible dans certaines catégories. Il faut donc regrouper des catégories BL/ET similaires dans des Unités de mesure (UdM) plus larges. Les données regroupées dans une seule UdM doivent être homogènes afin de garantir que les pertes assemblées partagèrent le même profil probabiliste. Les tests non paramétriques, Kolmogorov Smirnov (KS) et Anderson- Darling (AD) sont utilisés pour évaluer cette homogénéité. Une composante jugement expert est également employée. Généralement, une banque dispose de 10 à 30 UdMs, dépendamment de l abondance des données.

AMA Le système Base Model: Total Loss Distributions Internal Loss Data UoM Structure Loss Scenarios Benchmark Model: Loss & Scenarios based Distributions Diversification, VaR

LDA (Loss Distribution Approach) Le capital est défini comme la VaR au seuil de 99,9 des pertes annuelles. Selon la LDA (approche actuarielle), il faut calibrer les pertes à une distribution composée et déduire la VaR par la suite. Distribution composée? La distribution des pertes agrégées annuelles. Il faut donc construire cette distribution à partir de deux distributions : Distribution de la fréquence des événements des pertes : distributions discrètes (Poisson, Neg. Binomial), Distribution de la sévérité/magnitude des pertes : distributions continues positives. Exemples: LN, Gene. Pareto, Weibull, Burr, LogLogistic, LogGamma, Gene. Beta, Wald/Inv.Gauss,, Mixtures). N() t Agg. Loss( t) i 1 L it,

LDA/ Modèle de base/ Fréquence La distribution de fréquence des événements de pertes est la composante de la LDA la plus facile à définir. Pour chaque UdM, les séries temporelles des fréquences trimestrielles/mensuelles sont calibrées à : Distribution Poisson Distribution Negative Binomial Agg. Loss( t) N() t i 1 L it, N(t): Events count ~ Poisson/Neg. Binomial

LDA/ Modèle de base/ Fréquence La distribution NB implique une plus grande variance et elle est un modèle plus général qui englobe la distribution Poisson. Le test Likelihood Ratio est utilisé pour sélectionner le modèle le plus parcimonieux. Poisson Lambda 10 100 Negative Binomial R 10 50 P 0.50 0.33 Mean 10 100 Variance 20 300 0.05 0.04 0.03 0.02 0.01 PDF Poisson (100) Negative Binomial (50, 0.33) 0.00 50 75 100 125 150 175 200 1.00 0.80 0.60 0.40 0.20 CDF Poisson (100) Negative Binomial (50, 0.33) 0.00 50 75 100 125 150 175 200

AMA Le système Base Model: Total Loss Distributions Internal Loss Data UoM Structure Loss Scenarios Benchmark Model: Loss & Scenarios based Distributions Diversification, VaR

LDA/ Modèle de base/ Sévérité Définir la bonne distribution de sévérité des pertes représente la composante majeur et la plus délicate de l exercice. Le défi statistique est de taille : La distribution doit bien capter les données empiriques (Goodness-offit), La distribution doit générer une VaR au seuil de 99,9 stable (stable à l évolution des données) et raisonnablement adaptée à l exposition telle que perçue, Le tout avec un échantillon tronqué d une taille limitée (quelques centaines dans le meilleurs des UdMs) et souvent incomplet, contenant des pertes extrêmes!!

LDA/ Modèle de base/ Sévérité (p. 2) Approches de calibration (par UdM) : Modèle EVT (Body & Tail) : Le tail de la distribution est modélisé par une distribution Gene. Pareto (Pickands-Balkema-deHaan theorem), tandis que le corps est modélisé par une distribution simple comme la LN. Très utilisé aux débuts de la discipline, moins populaire présentement. Modèle de distribution tronquée : Tout l échantillon est calibré à une unique distribution, en utilisant la forme tronquée de celle-ci pour reconnaître la nature tronquée de l échantillon. Très rigoureux comme modèle. Le plus favorisé par les régulateurs. Pour garantir que l exercice aboutit à un résultat satisfaisant, plusieurs distributions doivent être testées. Peut être un modèle très instable face à l augmentation naturelle des données au fil du temps. Donc une grande volatilité de la VaR!

LDA/ Modèle de base/ Sévérité (p. 3) Modèle de distribution tronquée Techniques de calibration : Max Likelihood (MLE) : La technique la plus classique et la plus reconnue. Max Spacing : Maximiser l uniformité des percentiles. Possède les mêmes propriétés statistiques que le MLE et génère des résultats très similaires au MLE. Robust MLE (Hampel et al. (1986), Huber (2004)) : Éliminer les pertes extrêmes de l échantillon. Génère des modèles plus stables et de meilleur fit. Cependant, prédit en général une VaR plus faible (quoique très réaliste) que le MLE. Non accepté par les régulateurs. Optimal-Bias-Robust-Estimator (Opdyke and Cavallo (2012)) : L estimateur solutionne un système d équations définies par la matrice d information de Fisher. Très complexe à implémenter, et la convergence est rare. La solution dépend aussi d un paramètre de biais arbitrairement exogène! Problème de solution optimale : Dans certains cas d UdM, la surface du LogLikelihood est plate ou présente des spikes dans les bornes, ce qui pose des problèmes de solution arbitraire ou instable.

LDA/ Modèle de base/ Sévérité (p. 4) Goodness-of-fit : Les différentes distributions sont jugées par leur qualité de fit aux données. Les tests de GoF utilisés sont KS, AD et AD up-tail. Une p-value supérieure à est la norme. Vraisemblance de la VaR : La distribution retenue doit aussi prédire une VaR raisonnable (une VaR infinie ou presque est un résultat qui apparaît dans 30- des cas). La qualité du fit ne garantie pas systématiquement la vraisemblance de la VaR. Le ratio de la VaR par rapport a la pire perte annuelle empirique est un outil de mesure. Incertitude du modèle : La distribution Bootstrap des paramètres et de la VaR prédite par le modèle permet de mesurer l incertitude inhérente (std-error) du modèle. Un modèle avec grande dispersion est un modèle instable.

LDA/ Modèle de base/ Sévérité (p. 5) Exemple de calibration Max Likelihood GoF Test's p-values VaR Max Spacing GoF Test's p-values Distribution KS AD VaR Ratio VaR Amount KS AD VaR Ratio VaR Amount Lognormal 46% 9% 1.8 $44,267,253 44% 7% 2.0 $50,046,085 Loggamma 18% 6% 1.7 $41,763,374 22% 6% 22.3 $544,185,133 Loglogistic 98% 55% 2.1 $51,635,466 9 71% 19.3 $470,825,190 Gene. Pareto 91% 22% 0.3 $7,950,313 1% 0.0 $31,090 Weibull 33% 4% 1.2 $30,404,528 2% 0.1 $3,135,105 Lomax 29% 6% 2.4 $59,343,669 88% 11% 3.5 $85,231,717 Inv. Gaussian (Wald) 4% 0.6 $15,288,813 2% 0.8 $19,049,373 Burr 96% 74% 10.5 $260,365,899 98% 76% 11.2 $285,566,741 g 19% 9% 1.9 $46,441,980 26% 13% 2.0 $48,208,882 Power LN 2% 0.9 $21,254,697 1% 1.1 $25,856,159 Gene. Ext. Value (Frechet) 34% 49% 3.1 $74,617,447 55% 3.4 $81,943,881 Full Tail Gamma 2% 6% 0.3 $6,917,827 6% 3% Inf Inf Gene. Beta 2 Inf Inf Inf Inf Lognormal_x2_Mixture 92% 69% 4.2 $102,136,126 94% 78% 10.3 $251,732,900 Loggamma_x2_Mixture 63% 52% 33.4 $815,933,239 88% 2% 408.9 $10,000,000,000 Loglogistic_x2_Mixture 41% 32% 56.1 $1,372,007,323 93% 78% 22.0 $537,018,593 Lognormal_Pareto_Mixture 12% 408.9 $10,000,000,000 1% Inf Inf Weibull_Pareto_Mixture 3% 8% Inf Inf 2% 4% Inf Inf VaR

Fitted. Quantile in Log10 LogGamma_x2_Mixture 1 0.9 0.8 Empirical cdf fit Emp. CDF fit - UoM7 -Loggamma 2$ GoF Test p-value KS 71% AD 83% AD up-tail 93% 0.7 0.6 0.5 0.4 0.3 0.2 0.1 45% 0 4 4.5 5 5.5 6 6.5 7 7.5 8 8.5 9 Log10(Loss) Bootstrap Distribution of VaR MC Distr. Of VaR (SLA mean-adj) Emp. MLE fitted 7.5 7 Parameters a 116.9002 b1 0.0907 b2 0.1197 w 0.7755 Others Indicators Poisson Frequency 23 Log-Likelihood 2,507 AIC 5,022 VaR VaR Amount $187,679,299 VaR Ratio 6.30 QQ Plot - UoM7-Loggamma 2$ 35% 25% 6.5 6 15% 5% 8.16 8.21 8.26 8.31 8.36 VaR in Log10 5.5 5 4.5 4 4 4.5 5 5.5 6 6.5 7 7.5 Emp. Quantile in Log10

AMA Le système Base Model: Total Loss Distributions Internal Loss Data UoM Structure Loss Scenarios Benchmark Model: Loss & Scenarios based Distributions Diversification, VaR

LDA/ Modèle benchmark Modèle benchmark : Étant donné que les données historiques de pertes sont limitées, un modèle benchmark est estimé en mixant ces données avec des scenarios hypothétiques de pertes (Dutta & Babbel (2010), Ergashev (2010)). Scenarios hypothétiques : Ces scénarios sont formulés par un comité d experts (subject matter experts) en s informant des pertes rendues publiques des pairs. La fréquence et la sévérité de la perte hypothétique constituent le scenario. Chaque UdM fait l objet d environ 3-10 scenarios. VaR finale : La VaR du modèle de base est comparée à celle du modèle benchmark. Souvent, le capital final est défini entre les deux VaRs.

AMA Le système Base Model: Total Loss Distributions Internal Loss Data UoM Structure Loss Scenarios Benchmark Model: Loss & Scenarios based Distributions Diversification, VaR

LDA/ VaR totale & Diversification Un effet de diversification entre les pertes encoures entre différentes UdM peut être capturé dans la VaR. Le modèle de diversification est défini par une Student-t Copula calibrée aux pertes trimestrielles. Le diversification discount est typiquement autour de 15-25%. Pour estimer la VaR, la distribution composée des pertes annuelles est simulée par Monte Carlo. Les techniques déterministes (FFT, Panjer recurssion) pour résoudre cette convolution ne sont pas reconnues d être efficaces, même dans le cas d absence de diversification.

Défis organisationnels Regulators: Must be compliant to the Guidelines (more than 250 guidelines) Executives: Reasonable Capital Modelers Data: Limited & Incomplete Project Management: Deadlines, Dependencies

Recherche Calibration de la distribution de sévérité selon une approche d apprentissage non-paramétrique de la VaR Utiliser les techniques non-paramétriques afin de générer un échantillon de VaR non-paramétriques auquel on apprend le modèle à cibler tout en maximisant le LogLikelihood. La solution optimale achève un trade-off objectif entre qualité de fit (LogLikelihood) et vraisemblance de VaR. Une fonction de Conditional Likelihood Ratio est employée comme fonction objective. La calibration par trade-off utilitaire est une approche largement utilisée dans l estimation des paramètres de crédit (Friedman & Sandow (2003)). La composante learning de l approche proposée est une technique Bayesienne. Son application ici permet d assurer une meilleure précision/stabilité de la VaR qui dépasse celle de la méthode MLE. Les outils non-paramétriques ont prouvé leur efficacité dans la modélisation de la VaR de marché (Chen (1999), Gouriereux & Montfort (2006)).

Merci!