LA METHODOLOGIE DES ETUDES D EVENEMENTS DANS UN

Dimension: px
Commencer à balayer dès la page:

Download "LA METHODOLOGIE DES ETUDES D EVENEMENTS DANS UN"

Transcription

1 LA METHODOLOGIE DES ETUDES D EVENEMENTS DANS UN UNIVERS CARACTERISE PAR DES CHANGEMENT DE REGIMES Jean-Gabriel COUSIN 1, Eric de BODT 2 1. INTRODUCTION Depuis Fama, Fisher, Jensen et Roll (1969), les études d évènements sont devenues une méthodologie de référence en finance. Nous supposerons, dans ce document, que cette approche est bien connue du lecteur 3. Les applications en ont, à ce point, été si nombreuses qu il serait illusoire de tenter d en faire le tour. De nombreux auteurs se sont également penchés sur les améliorations possibles de l approche initiale. Sans volonté aucune d exhaustivité, on citera notamment les travaux de Brown et Warner (1980,1985), qui se penchent sur la puissance et la spécification de différentes variantes de l approche initiale, Ball et Torous ( 1988), qui prennent explicitement en compte l incertitude autour de la détermination de la date d événement, Corrado (1989), qui propose un test robuste, ne supposant pas la normalité des taux de rentabilité anormaux des actions, Boehmer et al. (1991), dont l approche permet de neutraliser l effet de saut de variance induit par l événement, Salinger (1992), qui systématise l étude de l écart type des taux de rentabilité anormaux durant la période d événement dans les études d échantillons. Toutefois, et en un sens curieusement, la période d estimation, utilisée pour estimer les paramètres du modèle,qui permet d obtenir les taux de rentabilité dits normaux des actions, a fait l objet d une attention moins soutenue. Celle-ci se définit le plus souvent comme une période située en amont de l événement, durant laquelle il est possible d estimer proprement les paramètres du modèle de référence utilisé. Dans les études en données journalières, la fenêtre allant de 250 jours avant l événement à 30 jours avant ce dernier est souvent utilisée, assez mécaniquement. Ensuite, une période de quelques jours (assez variables selon les études) peut être neutralisée entre la fin de la période d estimation et l événement lui-même, 1 ESA-Université de Lille II- 1, Place Déliot BP Lille. Courriel : 2 Courriel : 3 Campbell et al. (1997) présentent une synthèse intéressante des travaux effectués dans ce domaine. 1

2 selon que l on désire ou non prendre en compte l impact des fuites d information avant l annonce. La détermination mécanique de la période d estimation pose toutefois un problème, en particulier dans le cadre des études empiriques sur des échantillons de grande taille qui se généralisent aujourd hui 4. Il devient en effet, dans ce cadre, difficile d imaginer que le chercheur puisse, au cas par cas, s assurer du fait que la période d estimation n est pas contaminée par d autres événements spécifiques à l entreprise. Le risque est alors grand de biaiser l analyse. Imaginons en effet, dans le cadre d opérations de fusions et acquisitions par exemple, que l acquéreur ait, dans les mois qui précèdent, fait d autres opérations. Ce cas d espèce est fréquent. Déjà Malatesta et Tompson (1985)se sont penchés sur l impact des programmes de fusions et acquisitions, soulignant que les acquéreurs suivent souvent des stratégies de croissance externe qui s étalent dans le temps. La contribution récente de Fuller et al. (2002) souligne l importance de ce point. L inclusion de ces dernières dans la période d estimation des paramètres du modèle de détermination des taux de rentabilité normaux aura inévitablement des conséquences sur ces derniers. Plus gravement, peut-être encore, de tels événements risquent d augmenter de manière significative la variance des résidus du modèle, elle-même utilisée fréquemment pour tester la significativité des taux de rentabilités anormaux autour de l événement (une correction devant toutefois être faite pour tenir compte du fait qu il s agit de la variance de prévision (Salinger (1992)). Comme nous le montrerons dans la suite de ce document, ce biais réduit considérablement la puissance de l approche classique des études d événement, c est-à-dire sa capacité à détecter la présence de taux de rentabilité anormaux statistiquement significatifs lorsqu ils sont présents. C est à ce problème que nous nous attaquons dans ce travail. Nous poserons l hypothèse que, pour des raisons matérielles, essentiellement, le chercheur ne peut se permettre, pour l ensemble des entreprises de son échantillon, de s assurer au cas par cas, de l absence d événements concomitants dans la période d estimation. L approche proposée prend appui, à la fois sur les modèles désormais bien établis de la finance moderne, et en particulier sur le modèle de marché introduit par Sharpe (1964), mais également sur les modèles à changement de régimes, dénommés Markov-Switching Regressions Models (MS-Reg), notamment développés dans les travaux de Hamilton (1994), Krolzig (1997), Notre intuition initiale ² Fuller et al (2002), Mitchell et Stafford (1999) 2

3 est assez simple : l occurrence d un événement provoque un choc important sur le processus générateur des taux de rentabilité de l entreprise, ce choc pouvant être capté à l aide d un modèle à changement de régimes, notamment par une augmentation significative de la variance des résidus du modèle conditionnel au régime. Nous pourrons alors utiliser les paramètres obtenus dans le cadre du régime dans lequel se trouve le processus comme paramètres de référence pour l étude statistique des taux de rentabilité anormaux autour de la période d événement. En un certain sens, l approche proposée peut être comprise comme une méthode statistique de filtrage des données, permettant de neutraliser les chocs perturbateurs dans la période d estimation, sans qu il soit nécessaire pour le chercheur d en faire une recherche au cas par cas, jour après jour. Une autre vision de l approche proposée est celle d une spécification statistique, plus adaptée, du processus génération des taux de rentabilité des actions, permettant une meilleure spécification et puissance des tests sur les résidus du modèle, à savoir les taux de rentabilité anormaux. Le travail que nous effectuons est classique et prend appui sur celui réalisé par Brown et Warner (1980, 1985) ou Boehmer et al. (1991), pour ne citer qu eux. Dans un premier temps, en reposant sur un échantillon important d entreprises (quelques trois mille valeurs cotées sur les marchés américains composant l indice RUSSELL 3000), nous effectuons une étude de puissance et de spécification de différentes variantes de l approche classique en matière d étude d événement. Nous montrons, en troublant la période d estimation par des chocs aléatoires volontairement simulés, que ces dernières produisent des résultats de plus en plus biaisés. Nous montrons ensuite, toujours dans un cadre simulé, que l approche que nous proposons se révèle robuste à de telles perturbations. Notre objectif est, aussi rapidement que possible, d adjoindre à ce travail de simulation un travail sur un échantillon important d opérations de fusions et acquisitions, afin d étudier si, dans la réalité, le problème que nous analysons est susceptible de modifier de manière significative les conclusions des tests statistiques effectués concernant les taux de rentabilité anormaux, en particulier des acquéreurs, qui se révèlent souvent être des acquéreurs multiples (Fuller et al. (2002)). Nous consacrerons la première section de ce document à une présentation rapide des différentes alternatives classiquement suggérées aujourd hui dans le domaine des études d événements. Elle sera également consacrée à la présentation de l approche que nous proposons. Nous y introduirons aussi un certain nombre de rappels concernant les problèmes spécifiques que soulève l inférence statistique autour des modèles de type MS-Reg. Dans 3

4 notre deuxième section, nous présentons nos données et la méthodologie utilisée pour effectuer les tests de spécification et de puissance. Les résultats obtenus font l objet de la troisième section. Les multiples pistes de développement de ce travail en-cours sont abordées en conclusion. 2. METHODOLOGIE La méthode de simulation employée dans ce papier s inspire de celle de Brown et Warner (1980, 1985) et Boehmer et al (1991). Contrairement à une simulation de Monte-Carlo, où des valeurs sont générées aléatoirement à partir d une distribution statistique théorique, ces auteurs échantillonnent de véritables taux de rentabilité issus de la base de données CRSP 5. En sélectionnant aléatoirement des dates d évènements et des titres, ils créent des évènements simulés sans partir de l hypothèse d une distribution particulière des taux de rentabilité d actions. Des méthodologies similaires apparaissent également dans Corrado (1989,1992), Cowan (1992,1996) et Campbell et Wasley (1993), et de nombreuses autres contributions. Dans ce travail, l univers des titres que nous prenons en considération est celui de l indice RUSSELL ESTIMATION DES TAUX DE RENTABILITE ANORMAUX Dans le cadre de l approche classique des études d évènements, les taux de rentabilité anormaux sont définis comme les erreurs de prédiction d un modèle particulier caractérisant le processus générateur des taux de rentabilité des actions. Le modèle de marché est souvent utilisé 6, α j β R R + + jt j mt ε jt R jt =, où est le taux de rentabilité du titre j à la date t et est le taux de rentabilité du portefeuille de marché ou du portefeuille assimilé au marché à la date t. Le terme d erreur ε jt mesure les taux de rentabilité anormaux. Il est classiquement supposé identiquement distribué, gaussien et non auto-corrélé 7. Nous noterons sa variance Rmt 5 Base de données du Center for Research in Security Prices (CRSP) de l université de Chicago 6 Les études de Brown et Warner (1980 et 1985) montrent que les résultats obtenus sont largement robustes au choix de différents modèles en la matière. 7 Différentes corrections ont été proposées dans la littérature pour tenir compte du problème de l auto-corrélation des résidus du modèle de marché (par exemple, Rubacq (1982)). Comme nous l aborderons dans la suite de ce document, les tests dits robustes permettent de se passer de l hypothèses de résidus gaussiens. Notre travail porte en fait plus précisément sur l hypothèse de distribution unique et stable des résidus. 4

5 2 durant la période d estimation. Nous noterons la variance des taux de rentabilité anormaux durant la période d événement σ j ' σ 2 j 8. La période d estimation des paramètres du modèle de marché couvre la fenêtre de t=1 à t=200, et t =250 représente la date d événement 2 sélectionnée aléatoirement. Initialement, dans l approche classique, on suppose que σˆ j, obtenu sur la période d estimateur, est un estimateur non biaisé de la variance des résidus du modèle de marché en période normale. L estimation du β est réalisé par la méthode des moindres carrées ordinaires TESTS STATISTIQUES Notations Nous utiliserons tout au long du papier les notations proposées par Boehmer et al (1991), afin de décrire les différents tests statistiques. N A je nombre de titres dans l échantillon le taux de rentabilité anormal du titre j le jour d événement A jt T j le taux de rentabilité anormal du titre j au jour t le nombre de jours composant la période d estimation du titre j, égal à 200 jours pour notre simulation _ R m le taux de rentabilité moyen du portefeuille de marché durant la période d estimation ^ j S l écart type estimé des taux de rentabilité anormaux du titre j durant la période d estimation SR je le taux de rentabilité anormal standardisé du titre j à la date d événement, corrigé de l erreur de prévision (Salinger (1992)) : = ^ (R me Rm) A je / S j _ (1) Tj ( R R ) 2 m t= 1 mt _ ' 2 σ j 8 S agissant de la variance d erreur de prévision, est supérieur à. Salinger (1992) présente en détail la correction à effectuer. 9 Cowan et al (1996) ayant montrés que l ajustement de Scholes et Williams (1977) n apportait que peu d amélioration, cet ajustement ne sera pas effectué dans notre étude. 2 σ j 5

6 Approches de références Les tests statistiques utilisés sont les tests en coupe transversale standardisés de Boehmer et al (1991), des rangs de Corrado (1989) et celui que nous proposons utilisant les modèles MS- Var. L hypothèse nulle pour chaque test est l absence de taux de rentabilité anormaux, ou, plus précisément, que la moyenne en coupe transversale de ces taux de rentabilité anormaux est nulle. Le test standardisé de Boehmer et al. (1991) est similaire à celui de Patell (1976), mais à la différence de ce dernier, les auteurs utilisent la variance estimée, coupe transversale des erreurs d estimation standardisées, en lieu et place de la variance théorique. Cette procédure permet de tenir compte d un éventuel accroissement de la variance des taux de rentabilité anormaux le jour de l événement (les auteurs parlent d event induced variance) en l estimant en coupe transversale. Le test de Boehmer et al s écrit alors de la manière suivante : Z = 1 N( N 1) 1 N N N j= 1 ( SR SR je N ie j= 1 j= 1 SR N ie ) 2 (2) Boehmer et al (1991) montrent que ce test est bien spécifié pour un échantillon de titres issus du NYSE-AMEX sous l hypothèse nulle, et ce, même lorsque la variance augmente lors de la date d événement. De plus, lorsqu il n y a aucune augmentation de la variance, ce test est aussi puissant que l approche classique. C est pour ces raisons que nous étalonnerons notre test par rapport à celui là. Le second test est le test des rangs, développé par Corrado (1989). Sa procédure traite la période d estimation et la période d événement comme une seule série temporelle de 250 jours (notre test fera de même), et assigne un rang à chaque taux de rentabilité anormal quotidien de chaque firme. En suivant la notation de Corrado, soit K jt représente le rang du rendement anormal A jt dans la série des 250 rendements anormaux quotidiens du titre j. Le rang un est accordé au plus faible rendement anormal de la série. Soit K =rank( A jt ) jt, t = 1,,250, où A implique que K et 250 K 1 jt A jt' jt K jt ' jt 6

7 Par construction le rang moyen est égal à ( 0.5 T ) , soit, dans notre cas, 125,5. La statistique de rang ( K 125,5), pour le taux de rentabilité anormal A, permet de construire jt le test statistique suivant à la date d événement : jt T = 1 N N j= 1 ( K je S( K) 125.5) (3) L écart type S(K) est alors calculé à partir de l ensemble de la période de 250 jours : 250 N S ( K) = 1 ( 1 ( K 125,5)) 250 N 2 jt (4) t= 1 j= 1 La procédure ainsi employée transforme la distribution des taux de rentabilité anormaux en une distribution uniforme à travers les différentes valeurs de rang possible, sans prise en compte de la forme de la distribution originale. Corrado (1989), Corrado et Zivney (1992) et Campbell et Wasley (1993) montrent, à l aide de simulations, que le test des rangs est correctement spécifié et puissant. Cowan(1992) rapporte que ce test est mal spécifié pour les titres issue du Nasdaq (titres connaissant un faible volume d échange), et Boehmer et al (1991) montrent qu il l est également en cas d augmentation de la variance des taux de rentabilité du titre lors de la période d événement. D autres améliorations ont également été apportées. Ball et Torous (1988) étudient le cas d une date d événement incertaine. Utilisant une technique fondée sur un estimateur de maximum de vraisemblance, ils mesurent, simultanément, les taux de rentabilité de la période d estimation, leur variance et la probabilité d occurrence de l événement, pour chaque jour de la fenêtre d évènements. Lorsque qu une performance anormale est présente et que la date d événement est incertaine, leur simulation montre que la méthode rejette l hypothèse nulle plus fréquemment que les tests traditionnels. Nimalendram (1994) présente une méthodologie utilisant un modèle mixte composé d un processus de poisson couplé à un mouvement brownien standard, afin de séparer les effets d arrivé d information des stratégie 7

8 de trading autour des évènements. Il démontre que son modèle est plus puissant, si on le compare aux estimateurs traditionnels, pour des évènements aux annonces multiples. Ces approches pourraient, à priori, sembler adaptées à l analyse de la situation qui nous intéresse, à savoir l existence d une période d estimation troublée. Toutefois, une analyse détaillée met en évidence de nombreux problèmes techniques. Le nombre de combinaisons étudiées, dans la méthode de Ball et Touros (1988), devient rapidement explosif. L approche de Nimalendram ne permet pas l identification des périodes d arrivée d informations et semble peu adaptée à l estimation de l impact de l arrivée d informations sur une période courte. Modèle à saut de régimes Pour l élaboration de notre test, nous considérons une modélisation statistique du processus générateur des taux de rentabilité, pour lequel les paramètres du modèle de marché et la variance des résidus peuvent changer lors de différents régimes. Le régime est représenté par une variable exogène dont la valeur est non observable. L analyse est réalisée dans le cadre des Markov Switching Regime largement diffusé par les travaux de Hamilton (1994). Soit S t le régime dans lequel se trouve le processus à une date t. Il existe N régimes possibles ( = 1,2,,N). Dans notre cas nous poserons N=2 10. Notre modèle de base est donc le S t suivant : = si S =1 avec ε N(0; ) (5) y t α 1 + β1 R m, t + ε1, t y t α 2+ β2 R m, t + ε2, t t 1, t~ σ1 = si S =2 avec ε N(0; ) t 1, t~ σ 2 St est non observable et il convient, afin de compléter le modèle, de spécifier les propriétés de ce processus. Dans les modèle MS-Var, qui signifie que le régime courant S t S t est un processus de Markov de premier ordre, ce dépend uniquement du régime de la période précédente. La chaîne de Markov est alors caractérisée par 4 probabilités de transition : S t 1 P( S = p, t 1 St 1 = 1) = t 1 St 1 = 2) = 11 P( S = p, Ce choix repose à la fois sur la volonté de conserver des modèles parcimonieux et des analyses de spécification réalisées suivant la méthodologie développée par Krolzig (1997). 8

9 P( S = p, t 2 St 1 = 1) = t 2 St 1 = 2) = 21 P( S = p, 22 p ij est égale à la probabilité que le régime i en t-1 soit suivi du régime j en t. p pour i, j =1, 2 et p i p 1 pour i = 1,2 0 ij 1 + i 2= L estimation du modèle MS-Var à deux régimes repose donc sur l estimation des paramètres θ = ( α1, α2, β1, β2, σ1, σ 2) et des probabilités de transition pij. L inférence repose sur l estimation des probabilités d occurrence des régimes tout au long de la période de temps étudié. f( y t 2 = Ω = 1 ( yt α j β j Rm, t) st j, t 1; θ ) exp 2 j=1,2 (6) 2πσ 2σ j j S étant non observable, la vraisemblance L ( θ) f( Ω ; 1θ) est égale à : t t = yt t f yt Ω ; θ) = f( yt, S = 1 Ω ; θ) + f( yt, S = 2 Ω ; ) (7) ( t 1 t t 1 t t 1 θ P La relation fondamentale des probabilités conditionnelle, { } { A B} P AB d écrire : =, nous permet P B [ f ( y S = 1, Ω ; θ ) P( S = 1 Ω ; θ )] + [ f ( y S = 2, Ω ; θ ) P( S = 2 Ω ; )] f (8) ( yt Ωt ; θ ) = t t t 1 t t 1 t t t 1 t t 1 1 θ {} Afin d obtenir une estimation des différents paramètres du modèle, il nous faut donc estimer P ( S t j ; 1θ), j=1,2, soit la probabilité que le processus soit dans le régime j à la date t, et = Ωt cela connaissant l ensemble des observations de l échantillon (période d estimation et période d évènements) L inférence réalisé sur le régime dans lequel on se trouve en utilisant l ensemble de l information disponible est appelée smoothed inference. 9

10 Le test que nous proposons, consiste simplement en l adaptation de l approche de Boehmer et al. (1991), substituant au modèle de marché le modèle à deux états présentés à l équation (5). Cette approche présente a priori de multiples avantages : outre la possibilité de réaliser de l inférence sur le régime dans lequel le processus se trouve, la modélisation des taux de rentabilité anormaux sous la forme de gaussienne répond à l intuition de Roll (1987), à savoir que le vrai processus générateur des taux de rentabilité des actions serait un mélange de gaussienne. Il permet ainsi de corriger le test de significativité de la non normalité des taux de rentabilité anormaux.. Il prend également en compte l asymétrie (à vérifier) et les queues de distribution épaisses ainsi que l hétéroscédasticité de la variance conditionnelle, et cela, en n imposant aucune structure au saut de variance 12. Il possède de ce point de vue un avantage indéniable sur la rigidité des modèles GARCH 13. Enfin, l approche proposée génère à la fois le régime, les taux de rentabilité anormaux et la variance nécessaire pour réaliser l inférence, et ce,en laissant la possibilité d introduire une ou plusieurs variables exogènes. L ensemble de ces avantages devrait permettre à notre test de gagner en spécificité et en puissance face aux tests classiques, en particulier lorsque des événements importants troublent la période d estimation. 3. DONNEES 3.1 Sélection de l échantillon Nous construisons 250 échantillons de 50 titres chacun tirés aléatoirement parmi l ensemble des valeurs composant l indice Russell 3000 au 01/03/02. Cet indice est composé des 3000 plus importantes capitalisations boursières des Etats-Unis, et représente approximativement 98% du marché action américain. La capitalisation boursière moyenne est de 4 milliards de dollars et la médiane de 700 millions de dollars. Le minimum est de 128 millions de dollar, le maximum de 309 milliards. Pour l ensemble des valeurs le composant, on utilise les cours du 1/01//90 au 01/03/02, soit approximativement 3000 observations. Tous les titres et les dates d évènements sont tirés aléatoirement avec replacement. Nous sélectionnons les titres et les 12 Ces propriétés des modèles MS-Reg sont exposées en détail dans Krolzig (1997). 13 Savickas (2001) propose une utilisation des modèles GARCH dans le cadre des études d événements. 10

11 dates d évènements qui respectent les contraintes suivantes : pour faire partie de l échantillon, une valeur doit posséder au minimum 50 rendements quotidiens lors de la période d estimation (du jour 1 au jour 200) et aucun rendement manquant dans les 30 jours entourant l évènement (230 à 260 ; évènement en 250). Chaque portefeuille de 50 titres est tiré indépendamment des autres. 3.2 Simulation d évènements lors de la période d estimation Notre simulation se propose d étudier l incidence sur les tests de significativité de la présence éventuelle d évènements brouillant la période d estimation. Le niveau de performance anormale injecté durant la période d estimation prend les valeurs successives de 0%, ± 1%, ± 2% et ± 4%, et ces chocs sont de variance non nulle. Une variance différente de zéro implique que chaque titre connaît des niveaux différents de «pollution» de sa période d estimation. Notre simulation d accroissement de variance lors de la période d estimation pour chaque titre i prendra la forme générale kσ où σ 2 représente la variance du titre i durant la période d estimation non bruitée, et k prend les valeurs 0.5, 1, 2 et 4. Dans un premier temps, le nombre d évènements durant la période d estimation est déterminé en deux étapes. Un tirage aléatoire dans une loi de Poisson de moyenne 2 est réalisé. Il représente le nombre d événements durant la période d estimation. Ensuite, le nombre de jours durant lesquels se manifestent ces évènements est également tiré aléatoirement dans une loi de Poisson de moyenne 4. Cette méthodologie nous permet de générer des arrivées d information aléatoires durant la période d estimation. Le figure 1 présente un exemple type de résultats obtenus à l aide de cette procédure. La courbe continue représente la trace initiale des taux de rentabilité. La courbe pointillée représente celle obtenue après applications des d événements simulés durant la période d estimation. 2 i i 11

12 fig1: exemple de l'incidence de l'application de choc durant la période d estimation 4. RESULTATS Tous les résultats présentés par la suite reposent sur l utilisation d un seuil de significativité de 5%. 4.1 TESTS STATISTIQUES SANS EVENEMENTS DURANT LA PERIODE D ESTIMATION Dans un premier temps, et afin d étudier le comportement de l approche que nous proposons dans le même cadre que celui des travaux de référence, nous étudions la spécification et la puissance des trois approches (Boehmer (1991), Corrado (1989) et MS-Reg) lorsque aucun événement ne vient troubler la période d estimation. Le tableau 1 reprend les résultats obtenus. Lorsque le niveau de rentabilité anormal artificiel est nul, les tests doivent rejeter l hypothèse nulle d absence de performance anormal dans 5% des cas (test de spécification). Tableau 1 Taux de rejet de l'hypothèse nulle d'absence de rendement anormal - Aucun évènement artificiel durant la période d'estimation Niveau de rendement anormal injecté lors du jour d'événement Test 0,0% -0,5% 0,5% -1,0% 1,0% -2,0% 2,0% niveau de significativité : 5% Test de Boehmer 6,8% 28,8% 22,0% 66,8% 72,0% 100,0% 97,6% Test de Corrado 5,6% 42,8% 29,2% 88,8% 85,6% 99,2% 100,0% Test MS-Reg 4,8% 24,0% 36,0% 62,0% 83,2% 97,6% 98,0% 12

13 Pour un niveau de taux de rentabilité anormal nul, les taux de rejet des trois tests fournissent des résultats assez proches, qui se situent dans l intervalle de confiance à 99% ( 3,3% - 6,8%). Cela nous amène à conclure à la bonne spécification de ces trois tests dans ce cadre. Par contre, les niveaux de puissance, selon le signe du choc injecté artificiellement, connaissent des évolutions différentes. Le gain de puissance est évident et très important pour la détection des performances anormales positives : le test MS-Var rejette l hypothèse nulle d absence de performance anormale, lors d un choc de 0,5%, de 14 points plus souvent que le test de Boehmer (1991) et plus de 7 points que le test de Corrado (1989). Ce gain s estompe avec l accroissement du choc, tout en restant significatif au regard des performances du test de Boehmer (1991). Mis à part le test de Boehmer (1991), pour la détection de taux de rentabilité anormaux négatifs, les tests étudiés présentent une importante asymétrie de leur niveau de puissance. Pour un choc artificiel de -0,5%, le taux de rejet pour le test MS-Reg est de 12 points inférieur à celui d un choc de même ampleur mais de signe positif. Le même résultat, mais en sens inverse, est observé pour le test de Corrado (1989). Cette asymétrie de comportement des différentes approches (en particulier, les résultats obtenus lorsque l on injecte des taux de rentabilité négatifs) a fait l objet de peu d attention dans la littérature jusqu à présent et son étude sera l une des priorités des nos prochains travaux. 4.2 TESTS STATISTIQUES AVEC EVENEMENTS DURANT LA PERIODE D ESTIMATION Nous simulons à présent des évènements durant la période d estimation, se manifestant par un accroissement de la variance et un saut de moyenne. A priori, l inclusion de tels événements dans la période d estimation des paramètres du modèle de détermination des taux de rentabilité normaux devrait avoir des conséquences sur la spécification et la puissance des approches classiques. 13

14 Tableau 2 Taux de rejet de l'hypothèse nulle d'absence de rendement anormal évènement artificiel injecté durant la période d'estimation de moyenne nulle Niveau de rendement anormal Test 0,0% -0,5% 0,5% -1,0% 1,0% -2,0% 2,0% niveau de significativité : 5% k=0,5 Test de Boehmer 3,6% 28,8% 28,4% 65,6% 69,2% 97,6% 98,4% Test de Corrado 2,8% 41,6% 30,8% 86,8% 86,4% 100,0% 100,0% Test MS-Reg 2,0% 25,2% 39,6% 64,8% 81,6% 96,4% 96,8% k=1 Test de Boehmer 4,4% 28,8% 25,2% 69,6% 74,8% 98,0% 99,6% Test de Corrado 5,2% 43,2% 32,0% 91,6% 88,0% 100,0% 100,0% Test MS-Reg 4,8% 23,2% 36,0% 68,0% 84,4% 97,6% 99,2% k=2 Test de Boehmer 5,2% 28,8% 23,6% 74,4% 71,2% 99,6% 97,2% Test de Corrado 4,8% 39,2% 29,6% 92,0% 86,0% 100,0% 99,6% Test MS-Reg 4,8% 25,2% 36,0% 71,2% 81,6% 99,2% 98,0% k=4 Test de Boehmer 6,8% 34,0% 28,4% 68,8% 72,0% 98,4% 97,6% Test de Corrado 4,4% 38,8% 34,8% 89,2% 85,2% 100,0% 100,0% Test MS-Reg 5,2% 29,6% 38,4% 72,4% 80,8% 98,4% 98,0% Le tableau 2 reprend les résultats de nos simulations. La supériorité du test MS-Reg sur les deux autres est impressionnante pour la détection des rendements anormaux faibles et positifs (+0,5%) : le gain est au minimum de 10 points sur le test de Boehmer (1991) et ce quel que soit le niveau de variance induite. Par rapport au test de Corrado (1989) le gain paraît plus faible mais reste conséquent (plus de 6 points pour k=2). Le problème de l asymétrie de la puissance persiste et devra faire l objet d investigations dans le futur. Par contre, pour la détection de chocs plus importants à la date d événements (1% et 2%), le test de Corrado (1989) domine les deux autres approches. Les tableaux 3 et 4 reprennent les résultats du cas où l événement artificiel injecté durant la période d estimation est de moyenne 1% et 1%. La bonne spécification du test de Boehmer (1991) semble souffrir de l augmentation de la variance des évènements artificiels. Dans le tableau 3, pour k=2, le test rejette dans 8% des cas l hypothèse nulle d absence de taux de rentabilité anormaux. L écart de puissance entre les approches classiques et l approche MS- Reg s accentue. Pour k=1, le test MS-Reg présente un gain de près de 20 points sur les deux autres approches pour la détection d un choc de 0.5% et de plus de 15 points sur le test de Boehmer (1991) et de 8 points sur le test de Corrado (1989) pour la détection d un choc de 14

15 1%. Le problème de l asymétrie de la puissance persiste, même si les résultats semblent montrer une atténuation de l écart entre les différentes approches. Tableau 3 Taux de rejet de l'hypothèse nulle d'absence de rendement anormal évènement artificiel durant la période d'estimation de moyenne égale à 1,0% Niveau de rendement anormal Test 0,0% -0,5% 0,5% -1,0% 1,0% -2,0% 2,0% niveau de significativité : 5% k=0,5 Test de Boehmer 6,4% 32,0% 22,4% 71,6% 65,6% 98,0% 98,0% Test de Corrado 1,6% 36,8% 25,2% 86,8% 76,4% 100,0% 100,0% Test MS-Reg 4,0% 27,6% 40,0% 66,4% 83,6% 97,6% 98,0% k=1 Test de Boehmer 6,8% 35,2% 21,2% 71,6% 67,6% 99,6% 98,0% Test de Corrado 4,8% 38,0% 22,4% 88,8% 81,2% 100,0% 100,0% Test MS-Reg 6,8% 26,0% 41,2% 67,2% 82,8% 98,4% 98,0% k=2 Test de Boehmer 8,0% 34,0% 19,6% 73,6% 65,2% 99,6% 98,4% Test de Corrado 3,2% 36,8% 24,8% 89,6% 79,6% 100,0% 100,0% Test MS-Reg 6,8% 24,8% 33,6% 71,2% 78,8% 98,0% 98,4% k=4 Test de Boehmer 7,2% 34,8% 19,6% 73,6% 68,4% 100,0% 98,8% Test de Corrado 6,0% 44,4% 24,8% 89,6% 85,2% 100,0% 100,0% Test MS-Reg 6,4% 28,4% 33,6% 66,8% 77,6% 100,0% 98,4% Tableau 4 Taux de rejet de l'hypothèse nulle d'absence de rendement anormal évènement artificiel durant la période d'estimation de moyenne égale à -1,0% Niveau de rendement anormal Test 0,0% -0,5% 0,5% -1,0% 1,0% -2,0% 2,0% niveau de significativité : 5% k=0,5 Test de Boehmer 5,6% 29,6% 30,0% 67,6% 72,0% 98,0% 98,0% Test de Corrado 3,2% 32,4% 31,6% 84,0% 85,2% 99,6% 100,0% Test MS-Reg 5,2% 22,0% 39,2% 62,4% 81,2% 98,8% 97,6% k=1 Test de Boehmer 4,4% 27,6% 29,6% 66,4% 71,6% 97,2% 98,8% Test de Corrado 2,4% 32,8% 28,4% 84,8% 81,6% 100,0% 100,0% Test MS-Reg 6,4% 30,8% 41,6% 63,2% 78,8% 96,0% 98,4% k=2 Test de Boehmer 5,6% 28,8% 27,6% 70,4% 72,8% 99,2% 98,8% Test de Corrado 4,4% 32,8% 30,0% 85,6% 80,8% 100,0% 100,0% Test MS-Reg 5,6% 21,6% 41,2% 68,8% 81,6% 96,8% 98,4% k=4 Test de Boehmer 4,0% 24,4% 28,0% 68,4% 68,8% 99,2% 96,8% Test de Corrado 2,8% 34,8% 29,6% 86,0% 83,2% 100,0% 100,0% Test MS-Reg 4,4% 22,4% 32,8% 68,0% 82,8% 99,2% 98,4% 15

16 Le tableau 4 dénote une relative constance, au regard des résultats des autres approches, dans la puissance du test MS-Reg vis à vis du signe du choc injecté durant la période d estimation. Le test de Corrado (1989) souffre mécaniquement de l adjonction de chocs non-nuls en moyenne : il lui est plus difficile de détecter un choc positif dans la fenêtre d événement si la période d estimation est elle-même «polluée» positivement. Les tableaux 5 et 6 reprennent les résultats du cas où l événement artificiel injecté durant la période d estimation est de moyenne 2% et 2%. Le test de Boehmer (1991) accentue sa mauvaise spécification : dans le tableau 5, pour k = 2, en l absence de choc injecté le jour d événement, il réfute l hypothèse nulle d absence de taux de rentabilité anormale dans 11,6% des cas au lieu des 5% attendus. Le test MS-Reg reste le plus puissant pour les chocs faibles et le devient également pour les chocs plus important (1%). Les gains de puissance se confirment avec l accroissement du choc. Tableau 5 Taux de rejet de l'hypothèse nulle d'absence de rendement anormal évènement artificiel injecté durant la période d'estimation de moyenne égale à 2,0% Niveau de rendement anormal Test 0,0% -0,5% 0,5% -1,0% 1,0% -2,0% 2,0% niveau de significativité : 5% k=0,5 Test de Boehmer 8,8% 36,8% 20,8% 79,2% 64,4% 98,4% 96,8% Test de Corrado 2,8% 33,6% 13,6% 78,0% 66,0% 100,0% 99,2% Test MS-Reg 7,6% 32,0% 31,6% 70,8% 82,0% 96,4% 98,8% k=1 Test de Boehmer 4,4% 36,4% 17,2% 74,8% 61,6% 99,6% 97,6% Test de Corrado 1,6% 30,4% 15,6% 76,4% 62,4% 100,0% 98,8% Test MS-Reg 4,8% 28,8% 36,0% 68,4% 82,0% 98,8% 99,2% k=2 Test de Boehmer 11,6% 36,4% 19,2% 78,0% 61,6% 100,0% 96,4% Test de Corrado 4,0% 24,4% 18,4% 84,0% 66,8% 100,0% 99,6% Test MS-Reg 6,4% 23,2% 29,6% 73,2% 80,4% 100,0% 98,0% k=4 Test de Boehmer 5,6% 32,4% 16,4% 77,6% 65,2% 99,2% 98,4% Test de Corrado 5,2% 36,0% 17,6% 84,8% 73,2% 100,0% 100,0% Test MS-Reg 6,0% 27,2% 32,4% 66,8% 81,2% 99,6% 98,4% Le tableau 6 confirme ces remarques, tout en estompant le problème de l asymétrie de la puissance. Ce problème semble s atténuer lors de l injection d évènements artificiels durant la 16

17 période d estimation de moyenne non nulle et négative. Dans ce cas précis notre approche MS-Reg semble la mieux spécifié et la plus puissante dans tous les cas de figure. Tableau 6 Taux de rejet de l'hypothèse nulle d'absence de rendement anormal évènement artificiel injecté durant la période d'estimation de moyenne égale à -2,0% Niveau de rendement anormal Test 0,0% -0,5% 0,5% -1,0% 1,0% -2,0% 2,0% niveau de significativité : 5% k=0,5 Test de Boehmer 6,8% 20,8% 29,6% 63,2% 75,2% 98,4% 98,0% Test de Corrado 3,2% 24,4% 19,6% 70,0% 73,6% 100,0% 99,6% Test MS-Var 6,4% 20,4% 37,2% 62,0% 84,4% 98,0% 98,8% k=1 Test de Boehmer 6,0% 28,8% 32,8% 60,0% 77,2% 99,2% 99,6% Test de Corrado 4,0% 20,8% 19,2% 70,8% 80,4% 100,0% 100,0% Test MS-Var 4,0% 26,8% 41,6% 63,6% 85,2% 98,0% 99,2% k=2 Test de Boehmer 6,4% 24,4% 31,6% 66,0% 72,8% 99,6% 99,2% Test de Corrado 2,4% 24,4% 22,4% 75,2% 75,6% 100,0% 100,0% Test MS-Var 4,8% 22,8% 38,8% 68,0% 78,4% 98,8% 98,0% k=4 Test de Boehmer 6,4% 24,0% 33,6% 66,0% 74,0% 99,2% 98,4% Test de Corrado 2,0% 30,4% 27,6% 75,2% 79,6% 100,0% 100,0% Test MS-Var 5,2% 22,4% 44,8% 68,0% 78,0% 98,4% 98,4% Les tableaux 7 et 8 confirment les résultats précédents. Le test de Corrado(1989) est fortement biaisé en fonction du signe et de l ampleur de la moyenne du choc injecté lors de la période d estimation. Le test de Boehmer (1991) souffre d une mauvaise spécification qui s aggrave également avec l ampleur de la variance du choc injecté. De même, plus le choc est important en valeur absolue et plus la variance de celui-ci est importante, plus le gain de puissance de l approche MS-Reg est importante. Au regard du tableau 7, on peut affirmer que l écart entre les puissances des différentes approches s accentue encore : pour k=2 le test MS-Reg rejette l hypothèse nulle d absence de performance anormale lors d un choc de 0,5% de 20 points plus souvent que le test de Boehmer (1991) et de plus de 23 points que le test de Corrado (1989) et lors d un choc de 1% de près de 20 points le test de Boehmer (1991) et de 30 points le test de Corrado (1989). Dans la situation représentée par le tableau 8, le test MS-Reg est systématiquement le plus puissant. 17

18 Tableau 7 Taux de rejet de l'hypothèse nulle d'absence de rendement anormal évènement artificiel injecté durant la période d'estimation de moyenne égale à 4,0% Niveau de rendement anormal Test 0,0% -0,5% 0,5% -1,0% 1,0% -2,0% 2,0% niveau de significativité : 5% k=0,5 Test de Boehmer 7,6% 40,4% 13,6% 76,4% 57,6% 99,2% 97,2% Test de Corrado 1,2% 17,2% 6,4% 58,0% 35,6% 98,0% 90,8% Test MS-Var 5,2% 24,8% 28,0% 66,4% 85,2% 98,4% 97,6% k=1 Test de Boehmer 0,4% 46,4% 16,0% 76,0% 57,2% 99,2% 96,0% Test de Corrado 10,4% 14,8% 7,2% 62,4% 42,4% 99,2% 93,6% Test MS-Var 3,6% 27,6% 35,2% 72,0% 80,8% 98,4% 98,0% k=2 Test de Boehmer 10,8% 43,2% 11,6% 74,0% 62,0% 99,2% 95,6% Test de Corrado 0,4% 18,0% 6,8% 66,8% 51,2% 99,6% 96,0% Test MS-Var 4,0% 29,2% 30,4% 68,4% 81,2% 99,2% 98,4% k=4 Test de Boehmer 11,6% 44,4% 9,6% 75,6% 48,0% 99,2% 96,8% Test de Corrado 2,4% 26,4% 13,6% 72,0% 51,6% 100,0% 98,8% Test MS-Var 6,0% 26,8% 34,0% 65,6% 76,0% 98,8% 96,8% Tableau 8 Taux de rejet de l'hypothèse nulle d'absence de rendement anormal évènement artificiel injecté durant la période d'estimation de moyenne égale à -4,0% Niveau de rendement anormal Test 0,0% -0,5% 0,5% -1,0% 1,0% -2,0% 2,0% niveau de significativité : 5% k=0,5 Test de Boehmer 8,4% 22,8% 37,2% 58,8% 79,2% 98,4% 99,6% Test de Corrado 1,6% 11,6% 9,6% 40,0% 49,6% 91,2% 99,2% Test MS-Var 5,2% 22,8% 43,2% 65,2% 84,4% 99,6% 99,2% k=1 Test de Boehmer 8,8% 17,6% 33,2% 62,4% 78,4% 97,6% 98,4% Test de Corrado 0,8% 15,2% 8,8% 50,8% 54,8% 95,2% 98,0% Test MS-Var 6,4% 24,8% 34,0% 65,2% 84,0% 98,8% 98,8% k=2 Test de Boehmer 7,2% 23,2% 39,6% 59,6% 79,6% 98,0% 99,6% Test de Corrado 0,8% 18,4% 17,2% 56,8% 63,6% 95,2% 99,6% Test MS-Var 4,8% 24,4% 39,2% 70,8% 84,4% 98,4% 98,4% k=4 Test de Boehmer 8,4% 21,2% 44,4% 58,0% 83,2% 98,0% 99,2% Test de Corrado 0,8% 17,6% 19,2% 62,0% 69,6% 97,6% 99,6% Test MS-Var 4,0% 26,0% 41,2% 68,0% 86,8% 98,4% 98,8% 18

19 Conclusion La méthodologie classique des études d événement repose sur une série de paramètres. Depuis l étude initiale de Fama, Fisher, Jensen et Roll (1969), les applications de cette méthodologie en finance ont été innombrables. De multiples améliorations de la méthodologie de base ont également été proposées. Nous nous penchons dans ce travail sur le problème de la détermination d une période d estimation «propre». Les données issues de cette période sont utilisées pour estimer les paramètres du processus générateur des taux de rentabilité normaux. Il doit donc s agir d une période d activité normale durant laquelle aucun événement majeur ne vient troubler la vie de l entreprise. Jusqu à présent, la seule possibilité offerte au chercheur pour valider cette hypothèse a été, pour chacune des entreprises qui constituent son échantillon, de procéder à une étude minutieuse de la presse financière. Lorsque le travail est effectué sur des échantillons de grande taille, ce qui peut se révéler critique afin d obtenir des résultats statistiquement significatifs, une telle démarche est difficilement envisageable. L approche que nous proposons dans ce document apporte une solution de nature statistique à ce problème. Elle prend appui sur les modèles à changement de régimes, dénommés dans la littérature anglo-saxonne Markov-Switching Regressions Models, notamment développés dans les travaux de Hamilton (1994), Krolzig (1997). Les résultats obtenus montrent bien la grande sensibilité des approches classiques à l injection d évènements artificiels durant la période d évènements. L approche de Boehmer (1991) connaît rapidement des problèmes de spécification et de puissance. La présence de choc durant la période d estimation trouble également, très significativement, la puissance du test de Corrado (1989). Parallèlement à ces résultats, l approche que nous proposons conserve un niveau de puissance le plus souvent supérieur aux deux autres approches et ne connaît pas de problème de spécification. Cette étude n en est qu à une phase exploratoire. De nombreux travaux devront compléter ces résultats : - il est nécessaire de mieux comprendre, voire de trouver une solution, au problème de l asymétrie du comportement des tests étudiés selon que le choc envisagé soit d espérance positive ou négative. - les résultats déjà obtenus doivent être confirmés lorsque le choc injecté à la date d événement est stochastique. 19

20 - une extension potentiellement intéressante de notre approche sera également de l étendre au cas des études d événements avec régression en variables binaires. - une autre piste d amélioration de l approche actuelle est l utilisation d un estimateur des taux de rentabilité anormaux basé sur la moyenne des rentabilités anormales dans chaque état pondérée par la probabilité de l état en question. Il nous restera ensuite à envisager l application de l approche sur un échantillon significatif d opérations de fusions et acquisitions afin, en particulier en ce qui concerne les acquéreurs, d étudier l impact des acquisitions multiples sur la significativité statistique des résultats classiquement présentés dans la littérature financière. Bibliographie Ball, C., et W. Torous, 1988, Investigating security-price performance in the presence of event-date uncertainty, Journal of Financial Economics, 22, Boehmer, E., J. Musumeci, et A. Poulsen, 1991, Event-study methodology ender conditions of event induced variance, Journal of Financial Economics, 30, Brown, S., et J. Warner, 1980, Measuring security price performance, Journal of Financial Economics, 8, Brown, S., et J. Warner, 1985, Using daily stock returns: The case of event studies, Journal of Financial Economics, 14, Campbell John W., et al, 1997, The Econometrics of Financial Markets", Princeton University Press. Campbell, J. Cynthia et Wasley Charles E., 1993, Measuring security price performance using daily NASDAQ return, Journal of Financial Economics, 33, Corrado, C., 1989, A nonparametric test for abnormal security price performance in event studies, Journal of Financial Economics, 23, Cowan Arnold R., et Sergeant Anne M. A., 1996, Trading frequency and event study test spécification, Journal of Banking and Finance, 20, Fama, E., L. Fisher, M. Jensen, and R. Roll, 1969, The adjustement of stock prices to new information, International Economic Review, 10, Fuller K., J. Netter et M. Stegemoller, 2002, What do returns to acquiring firms tell us? Evidence from Firms that make many acquisitions, Journal of Finance, Août Hamilton James D., 1994, Time series analysis, Princeton University Press. 20

21 Krolzig H.-M., 1997, Markov-Switching Vector Autoregressions, University of Oxford, UK Lecture Notes in Economics and Mathematical Systems, Vol Springer, XIV. Malatesta P. et Thompson R., 1985, Partially Anticipated Events : A Model of Stock Price Reactions with an Application to Corporate Acquisitions, Journal of Financial Economics, 14, Mitchell M. et E. Stafford, 2000, Managerial decisions and long-term stock price performance, Journal of Business, 73, Nimalendram M., 1994, Estimating the effects of information surprises and trading on stock returns using a mixed jump-diffusion model, The Review of Financial Studies, vol.7, N 3, Roll, R., R-Squared, Journal of Finance, 43, 2, Salinger, M., 1992, Standard errors in event studies, The Journal of Financial and Quantitave Analysis, 27, Savickas, R., 2001, Abnormal Return, SSRN electronic paper collection. 21

Chapitre 4 : construction de portefeuille (I)

Chapitre 4 : construction de portefeuille (I) Chapitre 4 : construction de portefeuille (I) 25.10.2013 Plan du cours Risque et rentabilité : un premier aperçu Mesures traditionnelles du risque et rentabilité Rentabilité historique des actifs financiers

Plus en détail

Projetde SériesTemporelles

Projetde SériesTemporelles COMMUNAUTE ECONOMIQU E ET MONETAIRE DE L AFRIQUE CENTRALE (CEMAC) INSTITUT SOUS REGIONAL DE STATISTIQUES ET D ECONOMIE APPLIQUEE (ISSEA) Projetde SériesTemporelles MODELISATION DE LA RENTABILITE DE L INDICE

Plus en détail

Le risque Idiosyncrasique

Le risque Idiosyncrasique Le risque Idiosyncrasique -Pierre CADESTIN -Magali DRIGHES -Raphael MINATO -Mathieu SELLES 1 Introduction Risque idiosyncrasique : risque non pris en compte dans le risque de marché (indépendant des phénomènes

Plus en détail

Regime Switching Model : une approche «pseudo» multivarie e

Regime Switching Model : une approche «pseudo» multivarie e Regime Switching Model : une approche «pseudo» multivarie e A. Zerrad 1, R&D, Nexialog Consulting, Juin 2015 azerrad@nexialog.com Les crises financières survenues dans les trente dernières années et les

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

Exercice 2 du cours Management Bancaire : «Calcul de la VaR d une position de marché»

Exercice 2 du cours Management Bancaire : «Calcul de la VaR d une position de marché» Exercice du cours Management Bancaire : «Calcul de la VaR d une position de marché» La réglementation bancaire impose aux banques de maintenir un niveau de capital minimum pour absorber les pertes dues

Plus en détail

Principe des tests statistiques

Principe des tests statistiques Principe des tests statistiques Jean Vaillant Un test de signification est une procédure permettant de choisir parmi deux hypothèses celles la plus probable au vu des observations effectuées à partir d

Plus en détail

5. Validité de la méta-analyse

5. Validité de la méta-analyse 5. Validité de la méta-analyse 5.1. Poids de la preuve d une méta-analyse Le poids de la preuve d un résultat scientifique quantifie le degré avec lequel ce résultat s approche de la réalité. Il ne s agit

Plus en détail

Nous concluons au travers de quatre axes principaux qui ont guidé la. 1) La théorie du regret de Loomes et Sugden comme théorie de la décision

Nous concluons au travers de quatre axes principaux qui ont guidé la. 1) La théorie du regret de Loomes et Sugden comme théorie de la décision Conclusion générale Nous concluons au travers de quatre axes principaux qui ont guidé la rédaction de cette thèse. 1) La théorie du regret de Loomes et Sugden comme théorie de la décision rationnelle compatible

Plus en détail

COURS DE STATISTIQUE APPLIQUÉE

COURS DE STATISTIQUE APPLIQUÉE UNIVERSITE PROTESTANTE AU CONGO CENTRE CONGOLAIS-ALLEMAND DE MICROFINANCE COURS DE STATISTIQUE APPLIQUÉE Professeur Daniel MUKOKO Samba daniel_mukoko@yahoo.fr Quelques références Droesbeke, Jean-Jacques,

Plus en détail

Chapitre 3 : INFERENCE

Chapitre 3 : INFERENCE Chapitre 3 : INFERENCE 3.1 L ÉCHANTILLONNAGE 3.1.1 Introduction 3.1.2 L échantillonnage aléatoire 3.1.3 Estimation ponctuelle 3.1.4 Distributions d échantillonnage 3.1.5 Intervalles de probabilité L échantillonnage

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

23. Interprétation clinique des mesures de l effet traitement

23. Interprétation clinique des mesures de l effet traitement 23. Interprétation clinique des mesures de l effet traitement 23.1. Critères de jugement binaires Plusieurs mesures (indices) sont utilisables pour quantifier l effet traitement lors de l utilisation d

Plus en détail

Méthodologie d échantillonnage et Échantillonneur ASDE

Méthodologie d échantillonnage et Échantillonneur ASDE Méthodologie d échantillonnage et Échantillonneur ASDE Par Michel Rochon L énoncé suivant définit de façon générale la méthodologie utilisée par Échantillonneur ASDE pour tirer des échantillons téléphoniques.

Plus en détail

Travaux Dirigés de Probabilités - Statistiques, TD 4. Lois limites ; estimation.

Travaux Dirigés de Probabilités - Statistiques, TD 4. Lois limites ; estimation. Travaux Dirigés de Probabilités - Statistiques, TD 4 Lois limites ; estimation. Exercice 1. Trois machines, A, B, C fournissent respectivement 50%, 30%, 20% de la production d une usine. Les pourcentages

Plus en détail

CNAM 2002-2003 2léments de cours Bonus-malus et Crédibilité

CNAM 2002-2003 2léments de cours Bonus-malus et Crédibilité 1 CNAM 2002-2003 2léments de cours Bonus-malus et Crédibilité Une situation fréquente en pratique est de disposer non pas d un résultat mais de plusieurs. Le cas se présente en assurance, par exemple :

Plus en détail

Loi normale ou loi de Laplace-Gauss

Loi normale ou loi de Laplace-Gauss LivreSansTitre1.book Page 44 Mardi, 22. juin 2010 10:40 10 Loi normale ou loi de Laplace-Gauss I. Définition de la loi normale II. Tables de la loi normale centrée réduite S il y avait une seule loi de

Plus en détail

Support du cours de Probabilités IUT d Orléans, Département d informatique

Support du cours de Probabilités IUT d Orléans, Département d informatique Support du cours de Probabilités IUT d Orléans, Département d informatique Pierre Andreoletti IUT d Orléans Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences) - Bureau 126 email: pierre.andreoletti@univ-orleans.fr

Plus en détail

Etude empirique de la valeur d utilité de l immobilier des entreprises : un actif associé à la gestion du risque des sociétés

Etude empirique de la valeur d utilité de l immobilier des entreprises : un actif associé à la gestion du risque des sociétés Les nouveaux enjeux et défis du marché immobilier : comment y contribuer? Chaire Ivanhoé Cambridge ESG UQÀM Etude empirique de la valeur d utilité de l immobilier des entreprises : un actif associé à la

Plus en détail

Simulation d un système d assurance automobile

Simulation d un système d assurance automobile Simulation d un système d assurance automobile DESSOUT / PLESEL / DACHI Plan 1 Introduction... 2 Méthodes et outils utilisés... 2.1 Chaines de Markov... 2.2 Méthode de Monte Carlo... 2.3 Méthode de rejet...

Plus en détail

Chapitre 2 : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale.

Chapitre 2 : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale. Aix Marseille Université. Algorithmes Stochastiques. M MIS. Fabienne Castell... Chapitre : Méthode de Monte-Carlo avec tirages indépendants, pour le calcul approché d une intégrale. Le but de ce chapitre

Plus en détail

MÉTHODES ET STATISTIQUES POUR LIRE UN ARTICLE

MÉTHODES ET STATISTIQUES POUR LIRE UN ARTICLE MÉTHODES ET STATISTIQUES POUR LIRE UN ARTICLE Forum HH 05.02.2013 Ghislaine Gagnon Unité HPCI Qualitatif ou quantitatif? Les 2 méthodes peuvent être utilisées séparément ou en conjonction - le qualitatif

Plus en détail

Les effets d une contrainte de crédit sur la convergence économique : Le cas des pays de l UEMOA

Les effets d une contrainte de crédit sur la convergence économique : Le cas des pays de l UEMOA Les effets d une contrainte de crédit sur la convergence économique : Le cas des pays de l UEMOA Auteurs : Abdoulaye DIAGNE et Abdou-Aziz NIANG Introduction Ceci devrait contribuer à réduire l écart entre

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur

Plus en détail

Chapitre 2 : Représentation des nombres en machine

Chapitre 2 : Représentation des nombres en machine Chapitre 2 : Représentation des nombres en machine Introduction La mémoire des ordinateurs est constituée d une multitude de petits circuits électroniques qui ne peuvent être que dans deux états : sous

Plus en détail

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

La survie nette actuelle à long terme Qualités de sept méthodes d estimation La survie nette actuelle à long terme Qualités de sept méthodes d estimation PAR Alireza MOGHADDAM TUTEUR : Guy HÉDELIN Laboratoire d Épidémiologie et de Santé publique, EA 80 Faculté de Médecine de Strasbourg

Plus en détail

Master 1 Informatique Éléments de statistique inférentielle

Master 1 Informatique Éléments de statistique inférentielle Master 1 Informatique Éléments de statistique inférentielle Faicel Chamroukhi Maître de Conférences UTLN, LSIS UMR CNRS 7296 email: chamroukhi@univ-tln.fr web: chamroukhi.univ-tln.fr 2014/2015 Faicel Chamroukhi

Plus en détail

Analyse de la variance à deux facteurs

Analyse de la variance à deux facteurs 1 1 IRMA, Université Louis Pasteur Strasbourg, France Master 1 Psychologie du développement 06-10-2008 Contexte Nous nous proposons d analyser l influence du temps et de trois espèces ligneuses d arbre

Plus en détail

Document d orientation sur les allégations issues d essais de non-infériorité

Document d orientation sur les allégations issues d essais de non-infériorité Document d orientation sur les allégations issues d essais de non-infériorité Février 2013 1 Liste de contrôle des essais de non-infériorité N o Liste de contrôle (les clients peuvent se servir de cette

Plus en détail

11. Tests d hypothèses (partie 1/2)

11. Tests d hypothèses (partie 1/2) 11. Tests d hypothèses (partie 1/2) MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v1) MTH2302D: tests d hypothèses 1/30 Plan 1. Introduction 2. Hypothèses et erreurs 3. Tests d hypothèses

Plus en détail

Introduction au cours STA 102 Analyse des données : Méthodes explicatives

Introduction au cours STA 102 Analyse des données : Méthodes explicatives Analyse des données - Méthodes explicatives (STA102) Introduction au cours STA 102 Analyse des données : Méthodes explicatives Giorgio Russolillo giorgio.russolillo@cnam.fr Infos et support du cours Slide

Plus en détail

L essentiel sur les tests statistiques

L essentiel sur les tests statistiques L essentiel sur les tests statistiques 21 septembre 2014 2 Chapitre 1 Tests statistiques Nous considérerons deux exemples au long de ce chapitre. Abondance en C, G : On considère une séquence d ADN et

Plus en détail

La méthode des quotas

La méthode des quotas La méthode des quotas Oliviero Marchese, décembre 2006 1 La méthode des quotas Principe de la méthode Point de départ et but recherché Caractère «intuitif» de la méthode A quoi ressemble une feuille de

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Value at Risk - étude de cas

Value at Risk - étude de cas Value at Risk - étude de cas Daniel Herlemont 17 juin 2011 Table des matières 1 Introduction 1 2 La Value at Risk 1 2.1 La VaR historique................................. 2 2.2 La VaR normale..................................

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

Points méthodologiques Adapter les méthodes statistiques aux Big Data

Points méthodologiques Adapter les méthodes statistiques aux Big Data Points méthodologiques Adapter les méthodes statistiques aux Big Data I. Répétition de tests et inflation du risque alpha II. Significativité ou taille de l effet? 2012-12-03 Biomédecine quantitative 36

Plus en détail

STATISTIQUES. Cours I : Test d hypothèses. Télécom Physique Strasbourg Module 2101. Fabrice Heitz. Octobre 2014

STATISTIQUES. Cours I : Test d hypothèses. Télécom Physique Strasbourg Module 2101. Fabrice Heitz. Octobre 2014 Télécom Physique Strasbourg Module 2101 STATISTIQUES Cours I : Test d hypothèses Fabrice Heitz Octobre 2014 Fabrice Heitz (Télécom PS) Statistiques 2014 1 / 75 Cours I TESTS D HYPOTHÈSES Fabrice Heitz

Plus en détail

Protocole d étude de l évaluation des résultats des centres de FIV 2011 1. -Activité 2011-

Protocole d étude de l évaluation des résultats des centres de FIV 2011 1. -Activité 2011- Protocole d étude Evaluation des résultats des centres de FIV -Activité 2011- Contexte Depuis 2005, l Agence de la biomédecine a pour mission de suivre et d évaluer les activités cliniques et biologiques

Plus en détail

Lot Quality Assurance Sampling. Elise Naoufal EVARISQ 15 septembre 2011

Lot Quality Assurance Sampling. Elise Naoufal EVARISQ 15 septembre 2011 Lot Quality Assurance Sampling LQAS Elise Naoufal EVARISQ 15 septembre 2011 1 LQAS Une question d efficacité? LQAS et santé Méthode et Fondements théoriques Détermination du couple (n,d n,d) Conclusion

Plus en détail

Modélisation coalescente pour la détection précoce d un cancer

Modélisation coalescente pour la détection précoce d un cancer Modélisation coalescente pour la détection précoce d un cancer Mathieu Emily 27 Novembre 2007 Bioinformatics Research Center - Université d Aarhus Danemark Mathieu Emily Coalescence et cancer 1 Introduction

Plus en détail

Test de Poisson à 1 échantillon et à 2 échantillons

Test de Poisson à 1 échantillon et à 2 échantillons Test de Poisson à 1 échantillon et à 2 échantillons Sous-menus de Minitab 15 : Stat>Statistiques élémentaires>test de Poisson à 1 échantillon Stat>Statistiques élémentaires>test de Poisson à 2 échantillons

Plus en détail

Modèle GARCH Application à la prévision de la volatilité

Modèle GARCH Application à la prévision de la volatilité Modèle GARCH Application à la prévision de la volatilité Olivier Roustant Ecole des Mines de St-Etienne 3A - Finance Quantitative Décembre 2007 1 Objectifs Améliorer la modélisation de Black et Scholes

Plus en détail

Analyse de l évolution de la structure des ménages dans l enquête sur le budget des ménages

Analyse de l évolution de la structure des ménages dans l enquête sur le budget des ménages Analyse de l évolution de la structure des ménages dans l enquête sur le budget des ménages S. Winandy, R. Palm OCA GxABT/ULg oca.gembloux@ulg.ac.be décembre 2011 1 Introduction La Direction Générale Statistique

Plus en détail

StatEnAction 2009/10/30 11:26 page 111 #127 CHAPITRE 10. Machines à sous

StatEnAction 2009/10/30 11:26 page 111 #127 CHAPITRE 10. Machines à sous StatEnAction 2009/0/30 :26 page #27 CHAPITRE 0 Machines à sous Résumé. On étudie un problème lié aux jeux de hasard. Il concerne les machines à sous et est appelé problème de prédiction de bandits à deux

Plus en détail

Modélisation et étude d un système de trading directionnel diversifié sur 28 marchés à terme

Modélisation et étude d un système de trading directionnel diversifié sur 28 marchés à terme Modélisation et étude d un système de trading directionnel diversifié sur 28 marchés à terme Trading system : Trend following Breakout Janvier 1996 - Janvier 2009 Etude de la performance du système Le

Plus en détail

dans les salles de De l économétrie pour vendre des vins ou des obligations Philippe Février et Michael Visser

dans les salles de De l économétrie pour vendre des vins ou des obligations Philippe Février et Michael Visser De l économétrie pour vendre des vins ou des obligations Philippe Février et Michael Visser Grands vins ou bons du Trésor font l objet de ventes aux enchères. Mais quel type d enchères faut-il pratiquer?

Plus en détail

La régression logistique

La régression logistique La régression logistique Présentation pour le cours SOL6210, Analyse quantitative avancée Claire Durand, 2015 1 Utilisation PQuand la variable dépendante est nominale ou ordinale < Deux types selon la

Plus en détail

Does it pay to improve Corporate Governance? An empirical analysis of European Equities

Does it pay to improve Corporate Governance? An empirical analysis of European Equities Does it pay to improve Corporate Governance? An empirical analysis of European Equities Joseph GAWER NATIXIS Asset Management Université Paris Dauphine joseph.gawer@am.natixis.com Association Française

Plus en détail

Formations EViews FORMATIONS GENERALES INTRODUCTIVES INTRO : INTRODUCTION A LA PRATIQUE DE L ECONOMETRIE AVEC EVIEWS

Formations EViews FORMATIONS GENERALES INTRODUCTIVES INTRO : INTRODUCTION A LA PRATIQUE DE L ECONOMETRIE AVEC EVIEWS Formations EViews FORMATIONS GENERALES INTRODUCTIVES DEB : DECOUVERTE DU LOGICIEL EVIEWS INTRO : INTRODUCTION A LA PRATIQUE DE L ECONOMETRIE AVEC EVIEWS FORMATIONS METHODES ECONOMETRIQUES VAR : MODELES

Plus en détail

L analyse de variance à un critère de classification (ANOVA)

L analyse de variance à un critère de classification (ANOVA) Bio 041 L analyse de variance à un critère de classification (ANOVA) Pierre Legendre & Daniel Borcard, Université de Montréal Référence: Scherrer (007), section 14.1.1.1 et 14.1. 1 - Introduction Objectif:

Plus en détail

Guide de sélection d une solution de planification

Guide de sélection d une solution de planification Guide de sélection d une solution de planification Liste des points essentiels que votre prochaine solution de planification doit couvrir Une publication de PlanningForce Table des matières 1. Ressources

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

La régression logistique. Par Sonia NEJI et Anne-Hélène JIGOREL

La régression logistique. Par Sonia NEJI et Anne-Hélène JIGOREL La régression logistique Par Sonia NEJI et Anne-Hélène JIGOREL Introduction La régression logistique s applique au cas où: Y est qualitative à 2 modalités Xk qualitatives ou quantitatives Le plus souvent

Plus en détail

Prévention et gestion des risques naturels et environnementaux

Prévention et gestion des risques naturels et environnementaux Prévention et gestion des risques naturels et environnementaux Risque et assurance : quelques éléments théoriques Ecole des Ponts - Le 6 Avril 01 Jacques Pelletan 1 Théorie du risque et pérennité de l

Plus en détail

Tests de comparaison de moyennes. Dr Sahar BAYAT MASTER 1 année 2009-2010 UE «Introduction à la biostatistique»

Tests de comparaison de moyennes. Dr Sahar BAYAT MASTER 1 année 2009-2010 UE «Introduction à la biostatistique» Tests de comparaison de moyennes Dr Sahar BAYAT MASTER 1 année 2009-2010 UE «Introduction à la biostatistique» Test de Z ou de l écart réduit Le test de Z : comparer des paramètres en testant leurs différences

Plus en détail

Chapitre 1: Introduction au calcul des probabilités, cas d un univers fini.

Chapitre 1: Introduction au calcul des probabilités, cas d un univers fini. Chapitre 1: Introduction au calcul des probabilités, cas d un univers fini. 1 Introduction Des actions comme lancer un dé, tirer une carte d un jeu, observer la durée de vie d une ampoule électrique, etc...sont

Plus en détail

Evaluer des élèves de Seconde par compétences en Sciences Physiques

Evaluer des élèves de Seconde par compétences en Sciences Physiques Evaluer des élèves de Seconde par compétences en Sciences Physiques Introduction Depuis quelques années, le terme de «compétences» s installe peu à peu dans notre quotidien ; aussi bien dans la vie de

Plus en détail

COMPORTEMENT ASYMPTOTIQUE D UNE FILE D ATTENTE À UN SERVEUR

COMPORTEMENT ASYMPTOTIQUE D UNE FILE D ATTENTE À UN SERVEUR Université Paris VII. Préparation à l Agrégation. (François Delarue) COMPORTEMENT ASYMPTOTIQUE D UNE FILE D ATTENTE À UN SERVEUR Ce texte vise à l étude du temps d attente d un client à la caisse d un

Plus en détail

Références. Compter les mots. Le langage comme donnée. Communication Langagière Ingénierie des langues et de la parole

Références. Compter les mots. Le langage comme donnée. Communication Langagière Ingénierie des langues et de la parole Communication Langagière Ingénierie des langues et de la parole 1. Introduction générale 2. Ingénierie des langues 2.1 Représentation et codage des textes 2.2 Théorie de l information et probabilités 2.3

Plus en détail

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés Professeur Patrice Francour francour@unice.fr Une grande partie des illustrations viennent

Plus en détail

Elma m l a ki i Haj a a j r a Alla a Tao a uf u i f q B ur u kkad a i i Sal a ma m n a e n e Be B n e a n b a d b en e b n i b i Il I ham

Elma m l a ki i Haj a a j r a Alla a Tao a uf u i f q B ur u kkad a i i Sal a ma m n a e n e Be B n e a n b a d b en e b n i b i Il I ham Exposé: la technique de simulation MONTE-CARLO Présenté par : Elmalki Hajar Bourkkadi Salmane Alla Taoufiq Benabdenbi Ilham Encadré par : Prof. Mohamed El Merouani Le plan Introduction Définition Approche

Plus en détail

CHAPITRE 1. Michel LUBRANO using lecture notes by Luc Bauwens. Avril 2011. 1 Introduction 2

CHAPITRE 1. Michel LUBRANO using lecture notes by Luc Bauwens. Avril 2011. 1 Introduction 2 CHAPITRE 1 Volatilité et risques financiers Michel LUBRANO using lecture notes by Luc Bauwens Avril 2011 Contents 1 Introduction 2 2 Rendements et volatilité 2 2.1 Rendements..................................

Plus en détail

SCI03 - Analyse de données expérimentales

SCI03 - Analyse de données expérimentales SCI03 - Analyse de données expérimentales Introduction à la statistique Thierry Denœux 1 1 Université de Technologie de Compiègne tél : 44 96 tdenoeux@hds.utc.fr Automne 2014 Qu est ce que la statistique?

Plus en détail

Supplément théorique Inférence dans les réseaux bayésiens. Rappel théorique. Les processus aléatoires. Les réseaux bayésiens

Supplément théorique Inférence dans les réseaux bayésiens. Rappel théorique. Les processus aléatoires. Les réseaux bayésiens DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2011 Supplément théorique Inférence dans les réseaux bayésiens Rappel théorique Les processus aléatoires La plupart des processus

Plus en détail

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES LES STATISTIQUES INFERENTIELLES (test de Student) L inférence statistique est la partie des statistiques qui, contrairement à la statistique descriptive, ne se contente pas de décrire des observations,

Plus en détail

Approche hybride De la correction des erreurs à la sélection de variables

Approche hybride De la correction des erreurs à la sélection de variables Approche hybride De la correction des erreurs à la sélection de variables G.M. Saulnier 1, W. Castaing 2 1 Laboratoire EDYTEM (UMR 5204, CNRS, Université de Savoie) 2 TENEVIA (http://www.tenevia.com) Projet

Plus en détail

Tactical Currency Allocation Revisited: Four Simple Currency Trading Rules

Tactical Currency Allocation Revisited: Four Simple Currency Trading Rules Tactical Currency Allocation Revisited: Four Simple Currency Trading Rules Travail de gestion des investissements internationaux Présenté Kodjovi Assoé Par Patrick Drouot Etienne Desmarais Jean-François

Plus en détail

Projet de modélisation en présence de risque de défaut : Article sur la valorisation des CDS - Dominik O Kane Stuart Turnbull -

Projet de modélisation en présence de risque de défaut : Article sur la valorisation des CDS - Dominik O Kane Stuart Turnbull - T. Moudiki, X. Milhaud - M2R SAF Projet de modélisation en présence de risque de défaut : Article sur la valorisation des CDS - Dominik O Kane Stuart Turnbull - Sous la direction de M. Tchapda ISFA - Mai

Plus en détail

Cours 7 : Exemples. I- Régression linéaire simple II- Analyse de variance à 1 facteur III- Tests statistiques

Cours 7 : Exemples. I- Régression linéaire simple II- Analyse de variance à 1 facteur III- Tests statistiques Cours 7 : Exemples I- Régression linéaire simple II- Analyse de variance à 1 facteur III- Tests statistiques Exemple 1 : On cherche à expliquer les variations de y par celles d une fonction linéaire de

Plus en détail

Prévision de la demande

Prévision de la demande But : Pour prendre des décisions relatives à la structure et au fonctionnement opérationnel de tout système logistique; il faut s appuyer sur un système de prévision fiable. Concerne le long, moyen et

Plus en détail

CHAPITRE 1 La nature de l économétrie et la structure des données économiques... 25

CHAPITRE 1 La nature de l économétrie et la structure des données économiques... 25 TABLE DES MATIÈRES Sommaire... 5 Avant- propos... 9 Remerciements... 19 À propos de l auteur... 23 CHAPITRE 1 La nature de l économétrie et la structure des données économiques... 25 1.1 Qu est- ce que

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Chapitre VI Échantillonages et simulations

Chapitre VI Échantillonages et simulations Chapitre VI Commentaires : Récursivement, les commentaires ne sont pas à l attention des élèves.. Fluctuation d échantillonnage Définition : En statistiques, un échantillon de taille n est la liste des

Plus en détail

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Université Paris1, Licence 00-003, Mme Pradel : Principales lois de Probabilité 1 DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Notations Si la variable aléatoire X suit la loi L, onnoterax

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Bienvenue dans le monde de la construction logicielle

Bienvenue dans le monde de la construction logicielle Chapitre 1 Bienvenue dans le monde de la construction logicielle Sommaire : 1.1 La construction logicielle, qu est-ce que c est? : page 3 1.2 Pourquoi la construction logicielle est-elle importante? :

Plus en détail

La confiance joue un rôle prépondérant en économie ; c est un fait avéré et il n est point nécessaire de produire un recensement exhaustif pour s en convaincre. Une seule référence peut suffire : celle

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

!-.!#- $'( 1&) &) (,' &*- %,!

!-.!#- $'( 1&) &) (,' &*- %,! 0 $'( 1&) +&&/ ( &+&& &+&))&( -.#- 2& -.#- &) (,' %&,))& &)+&&) &- $ 3.#( %, (&&/ 0 ' Il existe plusieurs types de simulation de flux Statique ou dynamique Stochastique ou déterministe A événements discrets

Plus en détail

Procédure pour évaluer et/ou éditer un article

Procédure pour évaluer et/ou éditer un article Procédure pour évaluer et/ou éditer un article Rôle des membres du comité de rédaction dans le processus de révision d un article : 1. Rôle de la Rédactrice en chef 2. Rôle des Rédacteurs adjoints 3. Rôle

Plus en détail

Cours et applications

Cours et applications MANAGEMENT SUP Cours et applications 3 e édition Farouk Hémici Mira Bounab Dunod, Paris, 2012 ISBN 978-2-10-058279-2 Table des matières Introduction 1 1 Les techniques de prévision : ajustements linéaires

Plus en détail

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

NOTE SUR LA MODELISATION DU RISQUE D INFLATION NOTE SUR LA MODELISATION DU RISQUE D INFLATION 1/ RESUME DE L ANALYSE Cette étude a pour objectif de modéliser l écart entre deux indices d inflation afin d appréhender le risque à très long terme qui

Plus en détail

Examen Gestion de portefeuille

Examen Gestion de portefeuille ESC Toulouse 2005 D. Herlemont Mastère BIF Examen Gestion de portefeuille Durée : 2 heures Les documents ne sont pas autorisés. Pour les questions à choix multiples, une ou plusieurs réponses peuvent être

Plus en détail

Etude des propriétés empiriques du lasso par simulations

Etude des propriétés empiriques du lasso par simulations Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est

Plus en détail

master Principes de Finance d Entreprise Corporate Finance Création de valeur Philippe Thomas Collection BANQUE FINANCE ASSURANCE

master Principes de Finance d Entreprise Corporate Finance Création de valeur Philippe Thomas Collection BANQUE FINANCE ASSURANCE Collection master BANQUE FINANCE ASSURANCE Principes de Finance d Entreprise Corporate Finance Création de valeur Philippe Thomas Table des matières Introduction... 9 Chapitre 1 L entreprise : l investissement

Plus en détail

Asymétrie des rendements et volatilité multifractale

Asymétrie des rendements et volatilité multifractale Asymétrie des rendements et volatilité multifractale Emmanuel Bacry 1, Laurent Duvernet 2, Jean-François Muzy 3 Séminaire du Labex MME-DII 26 février 2013 1. CNRS École Polytechnique 2. Univ. Paris-Ouest

Plus en détail

Méthodes de Monte-Carlo Simulation de grandeurs aléatoires

Méthodes de Monte-Carlo Simulation de grandeurs aléatoires Méthodes de Monte-Carlo Simulation de grandeurs aléatoires Master Modélisation et Simulation / ENSTA TD 1 2012-2013 Les méthodes dites de Monte-Carlo consistent en des simulations expérimentales de problèmes

Plus en détail

STAT0162-1 Analyse statistique de données qualitatives et quantitatives en sciences sociales. Transparents Philippe Lambert

STAT0162-1 Analyse statistique de données qualitatives et quantitatives en sciences sociales. Transparents Philippe Lambert STAT0162-1 Analyse statistique de données qualitatives et quantitatives en sciences sociales Transparents Philippe Lambert http : //www.statsoc.ulg.ac.be/quali.html Institut des Sciences Humaines et Sociales

Plus en détail

Introduction à l'analyse de contenu qualitative : Voyage au pays du qualitatif

Introduction à l'analyse de contenu qualitative : Voyage au pays du qualitatif 1 Introduction à l'analyse de contenu qualitative : Voyage au pays du qualitatif Narration pour présentation Prezi (http://prezi.com/5tjog4mzpuhh/analyse-de-donneestextuelles-analyse-de-contenu-qualitative/)

Plus en détail

Evaluation d un test diagnostique - Concordance

Evaluation d un test diagnostique - Concordance Evaluation d un test diagnostique - Concordance Michaël Genin Université de Lille 2 EA 2694 - Santé Publique : Epidémiologie et Qualité des soins michaelgenin@univ-lille2fr Plan 1 Introduction 2 Evaluation

Plus en détail

Avant-propos. 1. Institut national de recherche en informatique et en automatique.

Avant-propos. 1. Institut national de recherche en informatique et en automatique. Avant-propos J ai découvert, un jour de 1986, l ouvrage de G. Fishman [FIS 73] sur la simulation au centre de documentation de l INRIA 1 à Rocquencourt. J ai été aussitôt attiré par ce procédé numérique

Plus en détail

Analyse de données longitudinales continues avec applications

Analyse de données longitudinales continues avec applications Université de Liège Département de Mathématique 29 Octobre 2002 Analyse de données longitudinales continues avec applications David MAGIS 1 Programme 1. Introduction 2. Exemples 3. Méthodes simples 4.

Plus en détail

Master 1 de Psychologie du Travail et des Organisations : Recueil et analyse des données - Corrigés des T.D. ( 2014/2015) -

Master 1 de Psychologie du Travail et des Organisations : Recueil et analyse des données - Corrigés des T.D. ( 2014/2015) - Dominique Ferrieux - Université Paul Valéry - Montpellier III Master de Psychologie du Travail et des Organisations : Recueil et analyse des données - Corrigés des T.D. ( /) - Deuxième partie : Plans :

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

Introduction à la simulation de Monte Carlo

Introduction à la simulation de Monte Carlo Introduction à la simulation de 6-601-09 Simulation Geneviève Gauthier HEC Montréal e 1 d une I Soit X 1, X,..., X n des variables aléatoires indépendantes et identiquement distribuées. Elles sont obtenues

Plus en détail

5255 Av. Decelles, suite 2030 Montréal (Québec) H3T 2B1 T: 514.592.9301 F: 514.340.6850 info@apstat.com www.apstat.com

5255 Av. Decelles, suite 2030 Montréal (Québec) H3T 2B1 T: 514.592.9301 F: 514.340.6850 info@apstat.com www.apstat.com Application des réseaux de neurones au plan de répartition des risques 5255 Av. Decelles, suite 2030 Montréal (Québec) H3T 2B1 T: 514.592.9301 F: 514.340.6850 info@apstat.com www.apstat.com Copyright c

Plus en détail