AU NIVEAU DU DEVELOPPEMENT DES OUTILS DEDIES A L’APPREHENSION DE CES RISQUES
Outre le bilan chiffré de ces événements, l’analyse de la sinistralité historique survenue sur des exercices antérieurs peut apporter des éclairages intéressants pour l’étude des catastrophes. En Europe, la majeure partie des dommages est générée par des périls définis comme de second ordre à l’échelle mondiale (inondation, glissement de terrain, incendie, pluie, tornade…) par opposition aux périls considérés de premier ordre comme les tremblements de terre, les ouragans et les tempêtes hivernales (figure 0-3). Cette distinction opérée entre les périls s’avère plus importante qu’elle ne peut paraître de prime abord. En effet, elle conditionne une large partie de l’intérêt et donc des efforts consentis à l’étude des risques catastrophiques. Pour la plupart des périls de second ordre, peu d’approches des risques existent, que ce soit des études empiriques (trop peu d’événements) ou des études probabilistes. En 1990, le lancement de la Décennie Internationale de la Prévention des Catastrophes Naturelles (DIPCN) sous l’égide des Nations Unies, a eu comme objectif de « faire en sorte que toutes les sociétés soient capables de résister aux catastrophes naturelles, industrielles et environnementales connexes, de façon à réduire les pertes environnementales, humaines et sociales liées à ces catastrophes ». Consécutivement aux événements de Northridge (1994, 20 Mrd de dommages assurés) et Kobe (1995, 3,5 Mrd USD de dommages assurés), la communauté scientifique a porté son effort sur l’intégration d’outils économiques dans la gestion du risque, à travers le développement des évaluations des pertes financières. Ce travail a abouti en 1997 au lancement d’un premier outil d’estimation du risque sismique (dénommé HAZUS) développé sous l’égide de l’United States Geological Survey (USGS) pour fournir un modèle personnalisable à destination de tous les acteurs. La montée en popularité de ces modèles a donc été directement ou indirectement liée à la succession d’événements catastrophiques de grande ampleur. En parallèle, les années 1990 ont été le témoin de grandes tempêtes hivernales typiques de l’Europe et d’ouragans aux Etats-Unis (notamment Andrew en 1992 qui causa près de 25 Mrd de dommages assurés). Ces phénomènes, couplés à la concentration des richesses dans les zones à risque ainsi que l’enchérissement des biens, ont mené au développement et à l’emploi aujourd’hui de modèles probabilistes permettant d’appréhender les conséquences financières de ces événements.
Rapide panorama des métiers de l’assurance
L’assurance consiste en une gestion collective des risques assurés en constituant des mutualités les plus homogènes possibles au sein desquelles chaque risque assuré apporte une contribution à l’équilibre de l’ensemble (FFSA, 2010). Se pose alors la question de l’assurabilité d’un risque. En pratique, est assurable un dommage causé par un événement aléatoire dont son occurrence est statistiquement homogène sur un territoire et ses conséquences répartissables sur l’ensemble des contrats délivrant la garantie en question. Les assurances de dommages englobent divers types de risques garantis indépendamment ou non par des contrats dont les principaux sont :
o les dommages aux biens (code civil : « les dommages aux biens résultent du fait d’un tiers, volontaire ou non, qui a pour résultat une perte de valeur ou la perte d’une chance, d’un bien ou d’un droit appartenant à celui qui s’en plaint »),
o les responsabilités (code civil : « l’assurance responsabilité couvre les dommages causés aux tiers. L’assurance responsabilité garantit l’assuré contre les recours exercés contre lui par des tiers recherchant sa responsabilité en tant que victimes pour obtenir réparation du préjudice qui leur a été causé »),
o les pertes pécuniaires, par exemple les pertes d’exploitation à la suite d’un incendie.
Les risques non-vie sont gérés selon le procédé de répartition, c’est-à-dire que les primes acquises, versées à la souscription d’un contrat, permettent de payer les sinistres qui seront déclarés au cours de l’année suivant la date de souscription. A ceci, s’ajoute l’existence de sinistres à déroulement long ou tardif dont le règlement peut s’étaler sur plusieurs années notamment ceux faisant l’objet de recours en justice. En conséquence, il convient alors de provisionner des fonds afin d’être en mesure de régler ces sinistres ultérieurement. Les risques peuvent, dans un premier temps, être segmentés en deux catégories :
o les risques de masse ou de fréquence qui concernent, pour l’essentiel, le marché du particulier. Du point de vue de la tarification, l’emploi de démarche consistant à se servir de la vision de la sinistralité antérieure (en termes de volume et coût moyen) pour déterminer celle à venir s’avère être très largement répandue. Malgré son caractère jugé stable et sécuritaire du point de vue de l’architecture tarifaire (Thourot P. et Fougère F., 2006), l’année 2009 a été témoin d’une dérive de la sinistralité sur le marché IARD (risque non-vie) et notamment sur le segment automobile à hauteur de + 8% (FFSA, 2010) par rapport à ce qui était escompté.
o les risques plus spécifiques, plus volatils par nature comme ceux du marché de l’entreprise. L’estimation des risques qu’ils représentent ne peut être cantonnée à une approche historique à partir d’indices. La tarification de cette catégorie du risque relève bien souvent d’un traitement au cas par cas ainsi que la visite des lieux de risque par un expert (ingénieur des risques et préventeur). Il faut préciser que ces risques sont soumis au principe indemnitaire (code civil : « l’assurance relative aux biens est un contrat d’indemnité ; l’indemnité due par l’assureur à l’assuré ne peut pas dépasser le montant de la valeur de la chose assurée au moment du sinistre ») interdisant de fait à l’assuré la réalisation d’un bénéfice grâce à l’assurance. Il s’agit en clair de ne compenser que le préjudice subi réellement. Dans le cadre de ces travaux, le contexte est restreint au périmètre d’assurance IARD hors risques de responsabilité et l’intérêt se focalise principalement sur le périmètre des particuliers notamment l’habitation (dont le détail est donné dans la figure 1-1) ainsi que la branche entreprise parce qu’ils sont directement impactés par les effets des catastrophes d’origines climatique ou technologique.
Les autorités de contrôle et règles générales
Les États membres veillent à ce que les autorités de contrôle disposent des moyens nécessaires pour atteindre le principal objectif assigné au contrôle à savoir, la protection des preneurs et des bénéficiaires (art 27). Le contrôle repose sur une approche prospective et fondée sur les risques. Il inclut la vérification continue du bon fonctionnement de l’activité d’assurance ou de réassurance, ainsi que du respect des dispositions prudentielles applicables (art 28). Le contrôle financier des entreprises (solvabilité, provisions techniques, fonds propres éligibles) relève de la compétence exclusive de l’État membre d’origine y compris pour leurs succursales et leurs activités en libre prestation de services (art 29). Les États membres veillent à ce que les autorités de contrôle :
o aient le pouvoir de prendre des mesures préventives et correctives en vue de garantir le respect des dispositions législatives, réglementaires et administratives (art 34).
o examinent et évaluent les stratégies, processus et procédures d’information prudentielle établis dans ce cadre :
– respect des exigences qualitatives relatives au système de gouvernance (notamment l’évaluation interne des risques et de la solvabilité),
– appréciation des risques,
– appréciation de leur capacité à mesurer ces risques compte tenu de l’environnement dans lequel elles opèrent (art 36).
À la suite du processus de contrôle prudentiel, les autorités de contrôle peuvent, dans des circonstances exceptionnelles et par décision motivée, imposer une exigence de fonds propres supplémentaire à une entreprise d’assurance ou de réassurance (art 37).
Capital de Solvabilité Requis: formule standard
Le SCR, calculé selon la formule standard, est la somme des éléments de base contenant au moins (art 103):
o le risque de souscription en non-vie,
o le risque de souscription en vie,
o le risque de souscription en santé,
o le risque de marché (reflète le risque lié au niveau ou à la volatilité de la valeur de marché des instruments financiers ayant un impact sur la valeur des actifs et des passifs de l’entreprise),
o le risque de contrepartie (reflète les pertes possibles que pourraient entrainer le défaut inattendu, ou la détérioration de la qualité de crédit, des contreparties et débiteurs de l’entreprise d’assurance ou de réassurance sur les douze mois à venir).
Le sous-module « risque sur actions » calculé selon la formule standard comprend un mécanisme d’ajustement symétrique de l’exigence en fonds propres pour actions qui sert à couvrir le risque découlant des variations de niveau du cours des actions (art 105).
o de l’exigence de fonds propres pour risque opérationnel, qui reflète les risques opérationnels, dans la mesure où ceux-ci ne sont pas déjà pris en considération dans les autres modules de risque (art 106),
o de l’ajustement réalisé en vue de tenir compte de la capacité d’absorption des pertes des provisions techniques et des impôts différés (art 107).
Rôle et place du secteur de la réassurance
La réassurance repose sur les mêmes fondements que l’assurance. La différence peut se réduire à la volonté de mutualiser les risques à l’ensemble d’un portefeuille. Succinctement, la réassurance se décline autour de deux axes majeurs. Le premier s’impose comme un véritable méta-marché des risques dans le sens où ceux-ci se regroupent selon une autre logique ainsi qu’à une échelle plus large que celle de l’assureur : la diversification géographique de risques, le lissage des résultats sur une échelle pluriannuelle, la constitution de réserves d’égalisation ainsi que la constitution d’importants fonds propres. Le second rôle de la réassurance consiste à libérer les assureurs d’une partie des risques auxquels ils sont soumis. Eu égard aux règles strictes que les assurances doivent suivre en matière de fonds propres, le recours aux protections financières proposées via les mécanismes de réassurance produit, en quelque sorte, un allègement des risques. L’objectif étant de dégager des fonds pour d’autres activités (plutôt que du capital immobilisé). Au demeurant, les sociétés d’assurance ou de réassurance ne couvrent que les risques extrêmes assortis d’un plafond de garantie et d’une franchise. Cela revient donc à travailler sur des tranches de risques dont les distributions sont tronquées et dont les variances et espérances deviennent ainsi définissables. Tout l’enjeu réside dans le choix de couvrir telle ou telle tranche de risque, de se positionner et de les dimensionner au plus juste. Sur un plan technique, les conséquences des ouragans Katrina, Andrew, le tsunami dans l’océan indien, le tremblement de terre de Kobe et bien d’autres encore, ont clairement montré les incompatibilités d’échelle entre l’étroitesse des limites administratives et la couverture géographique de telles catastrophes. Les compagnies d’assurance, en réponse à cette problématique, ont clairement restructuré géographiquement leurs stratégies financières après ces années d’enchainement de grandes catastrophes. En conséquence, la pression des marchés financiers envers les assureurs les a peu à peu contraints à limiter la volatilité de leurs résultats en transférant cette volatilité vers les organismes de réassurance qui, aujourd’hui, se retrouvent confrontés à ces mêmes contraintes. En réaction à cette situation, les solutions à la portée des réassureurs sont globalement doubles :
o Demander en compensation de cette couverture de la volatilité, des prix très élevés.
Solutions limites dans un marché de la réassurance très concurrentiel.
o Maintenir avec l’ensemble des cédantes qui composent le portefeuille du réassureur un volume d’affaires suffisamment diversifié afin que celui-ci permette de couvrir cette volatilité par une large gamme de risques couverts. Cependant, la première possibilité développée historiquement, jusqu’à voir l’émergence de sociétés spécialisées dans la couverture de risque de pointe, a connu des déboires notamment avec la pression des agences de notation qui ont fortement dégradé la note de ce secteur en poussant, de facto, vers une recherche de diversification plutôt que de spécialisation. Concernant la couverture des risques, le changement majeur en cours concerne le déplacement des standards sur lesquels la réassurance porte. De la protection du résultat en tant que facteur prépondérant, aujourd’hui le recours à la réassurance se fait en premier lieu pour sa contribution aux fonds propres en proposant une alternative efficace à leurs allègements. Avec l’avènement de ces nouvelles références, en parallèle se développe une demande de la part des compagnies cédantes, en préalable à l’achat de tel ou tel type de couverture, au niveau de l’analyse des risques tant du point de vue de leur probabilité d’occurrence que de leur fréquence (Redier, 2009).
La modélisation statistique en réassurance
Les modèles statistiques sur les événements extrêmes, et donc leurs modélisations, proviennent d’observations sur la répartition de la charge des sinistres sur les grands risques qui stipulent que 20% des sinistres représentent 80% de la charge totale (loi de Pareto). C’est sur ce genre de considérations empiriques que furent fondés les premiers traités en réassurance en excédent (dépassant un certain montant de charge) (Beck, 2001). L’étude des valeurs extrêmes prises s’est concentrée pour définir les lois limites possibles pour le maximum avec notamment les lois de Gumbel et Weibull. Mais ces lois n’ont pas connu d’application directe en assurance. Il convient de noter les travaux de Gumbel, sur les probabilités de débits maximum annuels sur les cours d’eau calibrés à partir d’une loi portant le même nom. Concernant la loi de Pareto, une de ses premières applications est liée aux inondations survenues en 1953 en Hollande à la suite d’un raz-de-marée. La question qui s’est alors posée (et qui régit toujours le dimensionnement des ouvrages d’art dans ce pays) concerne le dimensionnement des ouvrages de protection (principalement les digues) afin de se protéger d’événements d’une période de retour de 10 000 ans. La question ici se pose en des termes de probabilité de non-dépassement et, à cette fin, la loi de Pareto fut retenue. Cela représente en quelque sorte la genèse des lois des excès (c’est-à-dire de non-dépassement d’un seuil) aujourd’hui utilisées dans les modèles en réassurance (Embrechts, 2004). Ces lois ont été démontrées dans le courant des années 1970. Mais, les limites actuelles demeurent les mêmes : à partir de quelle valeur seuil l’ajustement à la loi est-il valide ou encore, à partir de quelle charge de sinistre peut-on considérer l’événement comme majeur ou catastrophique (Charpentier, 2009) ? A partir de statistiques, (Zajdenweber, 2000) montre que les extrêmes peuvent être classifiés en deux catégories :
o les extrêmes simples : leurs valeurs, malgré les apparences, ne sont pas très éloignées des valeurs moyennes. Ils suivent une distribution log-normale.
o les extrêmes hyperboliques : très éloignés des valeurs normales, modélisés à partir de fonctions mathématiques en forme d’hyperbole et caractérisés par une queue de distribution « épaisse ».
Les distributions des dommages générés par des catastrophes qu’elles soient d’origines climatique ou humaine, voient donc leurs extrêmes s’ajuster à une loi de Pareto dont la valeur absolue de la pente caractérise la distribution et se note α. Il indique l’importance relative des queues de distribution. Plus la courbe est tangente à l’abscisse, plus α est petit et plus les valeurs extrêmes dans les queues de distribution sont extrêmes et par conséquent, la prime pure est infinie (ce qui signifie que le risque n’est pas assurable ou réassurable). Bien entendu, à mesure que l’on se déplace vers la droite du graphique présentée dans la figure 1-13, et que l’on observe des valeurs extrêmes de charge, la fréquence diminue également. Tout l’enjeu consiste à définir la part de risque c’est-à-dire jusqu’à quelle probabilité d’occurrence le seuil sera placé. A titre d’exemple, des études menées par (Zajdenweber 2000) ont montré que le coefficient α était égal à 1,22 dans le cas des ouragans de la côte Est des Etats-Unis illustrant bien ici le phénomène de concentration. Bien entendu, d’autres méthodes existent, plus simples en apparence, par exemple l’utilisation du coût moyen historique observé sur les événements passés. Plusieurs limites se posent. D’une part, cela revient à considérer que la sinistralité passée est totalement représentative de la sinistralité à venir et, d’autre part, que l’historique sur la tranche étudiée soit disponible ce qui devient de moins en moins sûr à mesure que l’on étudie les tranches élevées.
Les enjeux de la gestion de ces événements
De cet impact sur l’organisation même des compagnies d’assurance, les conséquences qui découlent rejaillissent irrémédiablement sur la chaîne de valeur assurantielle. En effet, cela se traduit parfois, au sein du processus de gestion des sinistres, en retard et autres dysfonctionnements pénalisant directement les clients. D’un point de vue opérationnel, la non-anticipation de ces événements ou le mauvais dimensionnement de la réponse se traduit par des répercutions sur les conditions de travail des collaborateurs, notamment ceux en contact direct avec les clients. En outre, l’attente est grande de la part des clients souvent en état de choc suite à ces événements. Un défaut ou un manque de son assurance en termes de disponibilité, attention et/ou réactivité peut générer un sentiment d’abandon ou de laissé pour compte pouvant s’avérer irréversible, mettant ainsi en péril l’adhésion d’un assuré à son assureur. Les grands événements passés ont permis de tirer divers enseignements. En effet, leurs occurrences peuvent déclencher des réactions comportementales fortes de la part des assurés mais aussi des acteurs de l’assurance eux-mêmes. A l’aune de l’assuré, le sentiment d’abandon apparaît de manière récurrente. A son origine, il s’agit simplement de perturbations dans l’accès aux services d’assistance et de déclaration de sinistre dues à un dimensionnement du réseau inadapté. Il s’ensuit une réaction en chaîne débutant par des retards dans l’enregistrement des déclarations de sinistre. Ensuite, cela retarde d’autant le missionnement des experts et donc décale les dates des visites des sinistres par les experts et des réparateurs ce qui génère, en bout de chaîne, un allongement des délais menant au règlement du sinistre. En interne, l’occurrence de ces phénomènes et leur non-anticipation entraînent pour les équipes en charge de la gestion des sinistres et de l’assistance aux clients, un surplus de travail pouvant être très intense et requérant une disponibilité totale pendant les quelques jours suivant l’événement. En outre, l’incertitude liée aux consignes à appliquer lors de la déclaration de sinistres (modification des plafonds de charge pour l’expertise, exonération de garanties…) pèse sur la qualité de l’information transmise aux assurés. Au final, un sentiment d’impuissance peut poindre découlant de cette surcharge de travail et de l’incapacité à répondre aux attentes des assurés dans les délais habituels. Au final, les équipes commerciales se retrouvent confrontées elles aussi aux conséquences de ces événements. Cela se décline en un sentiment d’incapacité à communiquer des moyens efficaces et sûrs pour déclarer les sinistres ainsi que des conditions particulières d’indemnisation mises en place ou encore, aux difficultés à formuler des réponses cohérentes aux multiples réclamations et plaintes des assurés qui subissent de plein fouet les carences du système de gestion des sinistres. Si l’on ajoute à cet environnement la pression médiatique, l’absence de solutions, de lignes de conduite à tenir et parfois même de communication, la situation peut relever d’une désorganisation totale de l’outil de gestion. Dans ce contexte, il apparaît indispensable de pouvoir anticiper ce type d’événement, afin de s’y préparer de manière proactive et de ne pas faire subir aux assurés et aux équipes internes les effets néfastes d’une désorganisation générale de l’entreprise. En parallèle des enjeux organisationnels et internes, d’autres apparaissent et prennent une importance croissante. La dimension médiatique et politique entourant l’occurrence de ces événements dès les premiers instants propulse les assurances au devant de la scène. En termes d’image, de marque, les enjeux sont élevés et relèvent de ce fait de la stratégie de l’entreprise. La gestion de crise nécessite bien souvent une réactivité et une prise de décision quasiment en temps réel quant aux conditions de gestion parfois avant d’avoir pris l’entière mesure de l’événement en cours. Par exemple, l’épisode météorologique qualifié de « tornade » qui s’est déroulé le 3 août 2008 sur la commune d’Hautmont (département du Nord) et celles adjacentes, expose bien les pressions subies par le monde de l’assurance. Outre, la déclaration en état de Catastrophe Naturelle (alors que les effets du vent ne font pas partie dudit régime), l’Etat a nommé un médiateur issu de l’Inspection Général des Finances dont la mission à consisté à « faciliter un processus rapide d’indemnisation des personnes ayant subi des dommages » (AFP, août 2008) ainsi qu’un suivi du rythme d’indemnisation. En d’autres termes, cela revient à reconnaître implicitement la mauvaise gestion de ce type d’événement par les assurances et leurs incapacités à y faire face par eux-mêmes. Les montants d’indemnisations ont été également critiqués publiquement. Bien que l’enjeu financier soit limité pour cet événement dont le coût marché s’élève à 40 M€, c’est bien l’image de marque et le professionnalisme du secteur qui sont mis en branle sur la scène médiatique. Au final, on assiste à un autre aspect de la problématique des événements d’ampleur s’inscrivant dans la lignée du précédent. Cela concerne la surenchère d’annonces de mesures exceptionnelles visant à élargir le périmètre contractuel des conditions d’indemnisation des sinistres. Le point d’orgue a été atteint lors des tempêtes de 1999, véritable révélateur du manque d’anticipation et de préparation du secteur de l’assurance face à ces événements. La ligne deconduite s’est forgée au fil de l’eau. Chaque compagnie déclarant à tour de rôle des dérogations aux contrats générant, au final, une confusion généralisée. Celle-ci s’est traduite par une incompréhension des assurés quant aux conditions auxquelles ils avaient droit. En parallèle, la pression a été forte au niveau des gestionnaires dont les consignes n’ont cessé de changer, au gré des déclarations, quant à la mise en application par les gestionnaires sinistre des directives propres à chaque assureur. Bien que des leçons aient été tirées, des comportements similaires ont été observés lors des tempêtes de 2009 (Klaus et Quinten) mais de façon stratégique cette fois. Les assureurs ayant saisi l’occasion de se différencier de la concurrence et de tirer profit de la couverture médiatique de ces événements en annonçant avant tout le monde des mesures exceptionnelles, allant au-delà des conditions d’indemnisations arrêtées contractuellement tels l’abandon des franchises, le rehaussement des seuils de coût déclenchant une expertise, l’allocation d’un montant forfaitaire à chaque assuré dans les jours qui suivent l’événement avant l’indemnisation totale du sinistre, l’allongement de la prise en charge des frais de relogement au-delà des quelques jours prévus au contrat… Mécaniquement, ces effets d’annonce ont un impact sur le bilan financier de l’événement, notamment une augmentation du coût moyen des sinistres. Mais il va s’en dire que l’assureur amortit ce nouvel investissement s’il arrive à s’imposer dans ce véritable échiquier politicomédiatique. En poussant cette logique, il se peut se révéler opportun de mieux anticiper ces événements en se préparant à leur survenance et en envisageant des moyens d’actions efficaces quant à leur gestion. D’une manière générale, l’objectif vise à hausser sa qualité de service en démontrant sa réactivité, et donc son professionnalisme, dans une des rares fenêtres temporelles où le secteur de l’assurance est propulsé au devant de la scène médiatique. Cela requiert de concevoir de manière proactive une réponse globale et cohérente dans l’action (Godart et al. 2002). Dans cette optique, une connaissance et une compréhension accrues de la chronologie de ces événements s’imposent afin de fournir des moyens d’appréhender au plus vite leur ampleur. C’est à ces conditions qu’un panel efficient de mesures pourra être mis en œuvre afin de contrôler le risque de réputation et in fine, de créer ou de renforcer l’adhésion de l’assuré à sa marque d’assurance.
|
Table des matières
INTRODUCTION
DE L’OCCURENCE DES CATASTROPHES
AU NIVEAU DU DEVELOPPEMENT DES OUTILS DEDIES A L’APPREHENSION DE CES RISQUES
A L’ETAT DES PRATIQUES ACTUELLES DANS LES METIERS DE L’ASSURANCE
A L’IDEE DE LA THESE
POSITION DE RECHERCHE
STRUCTURE DU MANUSCRIT
PARTIE 1 : CONTEXTES INDUSTRIEL ET THEORIQUE
CHAPITRE 1 : DU POINT DE VUE DE L’ASSUREUR
1.1. L’ASSURANCE DOMMAGE EN FRANCE ET SES EVOLUTIONS LATENTES
1.1.1. Rapide panorama des métiers de l’assurance
1.1.2. Statistiques des marchés IARD des risques de particuliers et d’entreprises
1.1.3. Les tendances futures du marché des catastrophes naturelles
1.1.4. Synthèse de la Directive Solvabilité II
1.2. LE SECTEUR DE LA REASSURANCE
1.2.1. Rôle et place du secteur de la réassurance
1.2.2. Un secteur en mutation
1.3. LE FINANCEMENT DES RISQUES CATASTROPHES
1.3.1. Méthodes employées pour l’estimation des risques
1.3.2. La modélisation statistique en réassurance
1.3.3. Les modèles proposés sur le marché
1.4. ZOOM SUR LA GESTION D’UN EVENEMENT D’AMPLEUR
1.4.1. Un processus cyclique
1.4.2. La gestion de ces événements : un défi de taille
1.4.3. Les enjeux de la gestion de ces événements
Conclusion du premier chapitre
CHAPITRE 2 : DU POINT DE VUE DE LA GEOGRAPHIE DES RISQUES
2.1. QUELQUES GENERALITES SUR LA COMPOSANTE SPATIALE
2.2. MISE EN PERSPECTIVE DU TRIPTYQUE DOMMAGE / VULNERABILITE / PERCEPTION DU RISQUE
2.2.1. Les dommages induits par les inondations
2.2.2. La vulnérabilité : une notion polysémique
2.2.3. Hétérogénéité des approches assurantielles : exemple de la garantie inondation
2.3. ANGLE D’APPROCHE POUR L’EVALUATION ECONOMIQUE
2.3.1. L’analyse des dommages
2.3.2. La partie aléa
2.3.3. La partie enjeux
2.3.4. La partie dommage
2.3.5. Incertitudes des données et conséquences
2.4. L’EVALUATION EX ANTE DES DOMMAGES
2.4.1. L’aléa et ses caractéristiques
2.4.2. Les enjeux
2.4.3. Le recensement des enjeux sur les territoires
2.4.4. Le cas particulier de l’entreprise
2.4.5. Le recours aux courbes de dommage
2.4.6. Les logiciels de calcul de l’endommagement
2.4.7. La qualité de l’information géographique
Conclusion du deuxième chapitre
CONCLUSION DE LA PREMIERE PARTIE
PARTIE 2 : APPORTS DE L’INFORMATION GEOGRAPHIQUE POUR LA CONNAISSANCE, L’ANALYSE ET LA MODELISATION DES RISQUES NATURELS ET TECHNOLOGIQUES
CHAPITRE 3 : L’APPORT DE L’INFORMATION GEOGRAPHIQUE POUR L’ANALYSE DES RISQUES D’UNE SOCIETE D’ASSURANCE
3.1. L’ANALYSE DES RISQUES POUR UNE SOCIETE D’ASSURANCE
3.1.1. Démarche générale
3.1.2. L’analyse des dommages pour le secteur de l’assurance
3.2. LA MODELISATION DE L’EXPOSITION D’UN PORTEFEUILLE
3.2.1. Le positionnement du portefeuille sur le territoire
3.2.2. Echecs, erreurs et imprécisions de géocodage
3.2.3. Les bases de données
3.2.4. Méthodologie
3.2.5. Evaluation de l’exposition du portefeuille
3.2.6. Surveillance de portefeuille : évaluation du positionnement du portefeuille sur le marché
3.2.7. Risque de souscription : étude du positionnement des affaires nouvelles en MRH
3.3. L’EVALUATION DES DOMMAGES
3.3.1. Modélisation du risque financier – Application au risque inondation
3.3.2. Modélisation du risque financier – Application au risque explosion
CONCLUSIONS DU TROISIEME CHAPITRE
CHAPITRE 4 : VERS UNE DEMARCHE DE MODELISATION DES RISQUES POUR LE SECTEUR DE L’ASSURANCE
4.1. PHILOSOPHIE
4.2. DEMARCHE SCIENTIFIQUE
4.3. METHODOLOGIE DU MODULE DOMMAGE
4.3.1. La variable à expliquer
4.3.2. Le choix des variables explicatives
4.3.3. Le choix du nombre de variables explicatives
4.3.4. Le choix de la fonction lien
4.3.5. Le choix d’une loi de probabilité de réponse Y
4.3.6. L’estimation des coefficients de la régression
4.3.7. La validation du modèle
4.3.8. Construction d’un intervalle de confiance
4.4. EVALUATION DE LA VULNERABILITE FINANCIERE D’UN PORTEFEUILLE D’ASSURES – APPLICATION AU RISQUE INONDATION
4.4.1. La réalisation du modèle
4.4.2. Commentaires sur les résultats
4.4.3. La validation du modèle
4.5. EVALUATION DE LA VULNERABILITE FINANCIERE D’UN PORTEFEUILLE D’ASSURES – APPLICATION AU RISQUE « SUBSIDENCE »
4.5.1. Des mécanismes de la subsidence
4.5.2. Démarche Scientifique
4.5.3. Les bases de données
4.5.4. Construction et choix des variables
4.5.5. Présentation des résultats
4.5.6. Déploiement du modèle sur l’exercice 2009
4.5.7. Conclusions et commentaires
Conclusion du quatrième chapitre
CONCLUSION DE LA DEUXIEME PARTIE
PARTIE 3 : ORGANISATION DE L’OFFRE DE SERVICE ET D’ASSURANCE
CHAPITRE 5 : L’ORGANISATION DE L’OFFRE DE SERVICE : LES ATTENTES POUR L’OPTIMISATION DU PGEA
5.1. QUELQUES GENERALITES SUR LA GESTION DES EVENEMENTS D’AMPLEUR
5.2. DESCRIPTION DES ATTENTES
5.2.1. Des informations indispensables
5.2.2. Les informations attendues selon la dynamique de l’événement
5.3. LES SOLUTIONS MARCHE
5.3.1. Systèmes de veille d’actualités personnalisées
5.3.2. Système de surveillance climatique
5.3.3. Service de prédiction
5.3.4. Service pour le missionnement d’experts
5.3.5. Les enseignements
5.4. ALERTE METEOROLOGIQUE ET MODELISATION DE LA SINISTRALITE TEMPETE, CHEMIN FAISANT
5.4.1. Philosophie
5.4.2. Démarche
5.4.3. Statistiques descriptives par tempête
5.4.4. Statistiques globales de la sinistralité tempête MRH PM
5.4.5. « Méta-événement » tempête pour la reconstitution des événements
5.4.6. La modélisation des tempêtes
5.4.7. Reconstitution de la tempête Herta (1990)
5.4.8. Les enseignements
Conclusions du cinquième chapitre
CHAPITRE 6 : L’ORGANISATION DE L’OFFRE DE L’ASSURANCE
6.1. POLITIQUE DE SOUSCRIPTION EN RISQUE DE MASSE
6.1.1. Stratégie pour l’intégration de variables « climatiques »
6.1.2. Structure du processus
6.1.3. Choix du modèle
6.1.4. L’élaboration de règles de souscription
6.1.5. Synthèse
6.2. ANALYSE DE LA SINISTRALITE « INONDATION » OBSERVEE
6.2.1. Retour d’expérience des inondations de septembre 2002 dans le Gard
6.2.2. Comparaison avec la fréquence de sinistres observée lors des inondations de décembre 2003 sur le Rhône.
6.2.3. Présentation de la répartition de la charge sinistre observée lors des inondations de septembre 2002 dans le Gard et de décembre 2003 sur la partie avale du Rhône
6.2.4. Des enseignements pragmatiques de l’assurance du risque inondation
6.2.5. Eléments pour l’organisation de l’offre d’assurance inondation à destination de la branche MRH
6.2.6. Des enseignements théoriques de l’assurance du risque inondation
6.3. L’ORGANISATION DE L’OFFRE D’ASSURANCE : CREATION DE LA GARANTIE INONDATION HORS CATASTROPHE NATURELLE DE LA BRANCHE ENTREPRISE
6.3.1. Philosophie
6.3.2. Analyse de la sinistralité historique en risque d’entreprise
6.3.3. Le processus de souscription
Conclusions du sixième chapitre
CONCLUSIONS DE LA TROISIEME PARTIE
CONCLUSIONS GENERALES
BIBLIOGRAPHIE
Télécharger le rapport complet
