Au cœur de l’activité des assurances, le concept de mutualisation des risques est fondamental. Basé sur la loi des grands nombres, la logique de mutualisation implique de considérer que les dommages subis par un ensemble d’individus sont des variables aléatoires identiques et indépendantes. Autrement dit, ce principe suppose d’être appliqué au sein d’une population de risques homogènes, d’où les segmentations en classe d’assurés avec des profils et des risques différents entre les groupes et homogènes dans les groupes. Cependant, l’explosion des données (BigData) et des moyens de collecte (Objets connectés) permet aujourd’hui un affinage de ces segmentations en groupes plus restreints, et donc conduire potentiellement à l’idée de tarification individuel entrainant un paradoxe avec le principe de base de la mutualisation des risques à l’origine des assurances. Nous assistons donc actuellement à une confrontation forte entre ce concept de mutualisation des risques et d’affinage des groupes, et une question émerge donc quant à l’équilibre qui va en résulter, notamment dans un contexte de forte concurrence entre sociétés d’assurances.

assurance - segmentation

Analyse prédictive, BigData et l’assurance

Le modèle d’assurance est en pleine évolution. Le principe actuariel de découpage en groupes homogènes en termes de risque, basé historiquement sur peu de données, semble atteindre ses limites obligeant à repenser son fondement à cause et grâce aux nombreuses innovations émergentes. En effet, les données sont de plus en plus nombreuses et précises, provenant des assurés qui sont plus ouverts à fournir des données en échange d’une amélioration des conditions (prix, couverture, …) ou des services et des nouvelles technologies, notamment des objets connectés, conduisant à des segmentations très fines opposées au principe de solidarité entre assurés. La problématique actuelle des assureurs est donc de savoir s’il est nécessaire et pertinent de segmenter finement et à quel niveau. Dans ce contexte, les travaux de Charpentier et al. [1] offre une vision assez simple et compréhensive des enjeux actuels, que nous reprenons par la suite.

Le principe de la mutualisation tend à regrouper des assurés potentiellement exposés à des risques identiques, mais de manière aléatoire, l’aléa étant une autre base de l’assurance. Cette mutualisation des risques impose un calcul de probabilités le plus affiné possible, ce qui explique que les statistiques revêtent une importance majeure dans le domaine de l’assurance. Si les grandes compagnies se montrent assez souples dans leur politique de souscription, c’est justement parce que le nombre d’assurés est élevé, ce qui permet en parallèle d’offrir des tarifs attractifs. Une compagnie d’importance moindre est logiquement plus sélective avec une prise de risques moins élevée et donc des tarifs également compétitifs. L’assurance repose donc sur cet équilibre entre la nécessité d’avoir un segment suffisamment large pour être fiable et la nécessité de proposer un prix compétitif et accessible aux assurés dont les risques sont peu élevés et les moyens limités. Le profil de chaque assuré potentiel ayant une influence majeure sur le coût de la cotisation, comparer les offres est une étape difficilement contournable.

Au travers de la définition de ce principe, on voit donc deux points clés : d’une part le calcul du risque le plus fin possible et d’autre part la concurrence entre les assurances. L’explosion des données permet dans le premier cas d’avoir une connaissance plus précise des comportements, dans le second, de proposer au travers des comparateurs des outils de décision pour la meilleure garantie au meilleur prix. Le Big Data permet ainsi de faire passer l’assurance de l’analyse « reporting » à l’analyse prescriptive. Une approche Big Data permet d’enrichir les données de l’entreprise avec celles de sources externes. Il n’est pas ici question de tendre vers « l’infobésité » (en accumulant toujours plus d’information non exploitée) mais plutôt de se donner de nouveaux angles de vue en s’appuyant sur quatre sources principales de données :

• Les « logs » des sites web et « third party data » i.e. formulaire, cookies, … : mesurer les comportements en termes de navigation, configurations, temps passé,
• Les « insights » des médias sociaux : analyse de sentiments, animation pertinente de communauté, diffusion d’informations et récolte de retours produits.
• L’Open data : ensemble de données publiques gratuites mise à disposition par les organismes publics comme l’Etat ou les collectivités locales telles que data.gouv.fr ou la sécurité sociale.
• Internet des Objets (IdO) : Informations provenant d’objets connectés.

 

L’apport de ces données en complément des données entreprises, permet aux assureurs :

• Connaître plus précisément des comportements pour affiner au plus près les garanties et les prix.
o Répondre aux besoins des assurés de payer le prix correspondant à leurs risques
o Utiliser l’explosion des objets connectés pour des tarifs personnalisés et évolutifs en temps-réel.
• Lutter contre la fraude en identifiant des comportements anormaux.
• Devancer la résiliation d’un contrat ou un besoin nouveau.
• Augmenter la conversion de souscription en ligne.
• Permettre d’offrir de la prévention, des conseils ou un accompagnement vraiment personnalisés.

Segmentation ou mutualisation ?

Le calcul des tarifications des assurés tel qu’effectué pour le moment est basé sur des facteurs de risques. Sans segmentation, le juste prix d’un risque est l’espérance mathématique de la charge annuelle. En d’autre termes, la somme des primes doit permettre d’indemniser l’ensemble des sinistres survenus par les assurés. Dans ce cas, en moyenne, l’assureur est à l’équilibre mais doit supporter à sa charge l’intégralité du risque reposant sur l’hétérogénéité du portefeuille.

A l’inverse, si l’on suppose une tarification avec segmentation parfaite, c’est-à-dire que l’assureur dispose d’une connaissance parfaite des classes de risque, l’assureur sera en moyenne à l’équilibre, mais le risque est reparti par ce dernier et les segments (autorégulation intragroupe).

Afin de voir le comportement du marché en présence de ces acteurs, soit dans un domaine concurrentiel, supposons que deux assureurs sont sur le marché. La première ne segmente pas alors que la seconde tient compte de l’information parfaite dont elle dispose. Les travaux de Charpentier et al. montrent dans ce cas que les « bons » risques ont une prime plus basse chez l’assureur qui segmente et les « mauvais » risques ont une prime plus basse chez l’assureur qui ne segmente pas. Dans ce cas de figure, l’assureur qui ne segmente pas n’ayant plus les « bons » risques pour garantir un équilibre financier menace de s’effondrer, tandis que la segmentation assure de rester à l’équilibre en limitant des contrats périlleux. On entre alors dans une « spirale de la segmentation » dans laquelle les assureurs qui ne segmentent pas courent à la faillite.

Cependant, malgré une explosion des données, la connaissance parfaite des classes de risque reste utopique. Il est donc plus réaliste de supposer que l’assureur dispose d’un ensemble de variables explicatives plus ou moins important mais non exhaustif. Toutefois, en se replaçant dans un contexte de concurrence avec un assureur ne segmentant pas, on retombe sur un cas comparable au précédent, à savoir que les assureurs qui segmentent sont en moyenne à l’équilibre alors que ceux qui n’ont pas segmenté perdent de l’argent (en moyenne) en attirant massivement les « mauvais » risques. Néanmoins, les auteurs de l’étude exposent également que dans ce cas l’assureur segmentant peut aussi se retrouver avec une part de marché faible induisant un autre risque lié à la taille de portefeuille (plus volatile).

Afin d’avoir une vision encore plus réaliste, il est nécessaire d’étudier le cas où ces différents assureurs coexistent sur le marché : un assureur ne segmentant pas, deux assureurs segmentant imparfaitement et un dernier segmentant plus finement. Les conclusions des auteurs de l’étude [1] sont les suivantes :

• D’un côté, l’assureur qui ne segmente pas se trouve en réelle difficulté car il a récupéré les plus « mauvais » risques, largement sous-tarifés.
• De l’autre côté, l’assureur qui segmente le plus finement est certes à l’équilibre financier, mais sur une niche de population beaucoup plus petite et de plus la variabilité de son ratio sinistres/primes est très importante. Cette société a quasiment une chance sur cinq d’avoir un ratio plus mauvais que celui du marché.

Au travers de leur étude assez simpliste dans l’approche, on voit le comportement des assurances émerger. Néanmoins, l’utilisation de la prime pure comme prime n’est pas suffisante car elle ne tient pas compte de la marge de solvabilité généralement utilisée. Dans ces conclusions, la société qui a ici le plus segmenté pourrait alors disparaître du marché.

En bref

Au final, la segmentation et la mutualisation apparaissent clairement comme les deux faces d’une même pièce pour reprendre les termes de Charpentier et al. L’évolution des comportements et plus particulièrement des attentes des assurés induit par les évolutions technologiques permet une connaissance et donc une anticipation des besoins plus précise qui, de prime abord, semble être à l’encontre du principe de mutualisation. Néanmoins, ce besoin exprimé, dans un contexte de concurrence, elle-même exacerbé par les nouvelles technologies (meilleure connaissance des produits, comparateurs, …) doit trouver une réponse satisfaisante tout en imposant une solidarité minimale. Ce changement de paradigme dans lequel l’assuré est au centre, participatif et acteur, bouleverse le paysage de l’assurance. Il n’est actuellement pas possible d’anticiper où va aboutir la spirale de la segmentation, certains avançant une possible responsabilisation des assurés, poussant les assureurs à repenser les missions de prévention, d’autres des limites sociales laissant des personnes sans protection. Toutefois, ce virage se doit d’être négocié à l’aube d’une accélération des technologies à l’origine des bouleversements. L’art de la tarification devient désormais beaucoup plus subtil, devant tenir compte de facteurs qui apparaissaient encore récemment comme non mesurables mais qui peuvent et doivent maintenant être investigués.

[1] Arthur Charpentier, Michel Denuit et Romuald Elie, 2016, Segmentation et mutualisation les deux faces d’une même pièce ?, http://freakonometrics.hypotheses.org/19659

L'Expert


Matthieu CANAUD
Consultant

 

06 68 36 19 31