Maurizio Filippone Chercheur soutenu par AXA

L’intelligence artificielle pour mieux "calculer l’avenir"

Comment rapprocher les découvertes scientifiques des applications concrètes en entreprises ? Maurizio Filippone, chercheur soutenu par AXA, a rencontré Marine Habart et Madeleine-Sophie Deroche, deux expertes de la modélisation des risques, pour échanger sur les optimisations possibles de la modélisation des risques grâce à l’intelligence artificielle. Construire un monde résilient
2 oct. 2019

Meilleure connaissance des sujets, quantification, validation des modèles… l’expertise scientifique a toujours été au cœur de la détection et de l’évaluation des risques, qui sont le propre du métier d’assureur. Si les experts d’AXA sont en contact permanent avec le monde scientifique, les échanges en dehors du flux du travail sont plus rares. C’est pour favoriser ces rencontres que le Fonds AXA pour la Recherche organise une série de workshops avec des chercheurs dont le fonds finance les travaux. La première rencontre avait pour principal invité le professeur Maurizio Filippone, directeur de la Chaire AXA en statistique computationnelle et professeur associé à l’EURECOM. Marine Habart, Directrice des Risques Vie et Santé et Madeleine-Sophie Deroche du département gestion des risques P&C étaient également présentes. Tous les trois répondent à nos questions.

Le sujet de cette première rencontre organisée par AXA était « Intelligence Artificielle & modélisation des risques ». Comment vos travaux de recherche s’inscrivent-ils dans cette problématique ?

Maurizio Filippone : Pour prendre des décisions, il est nécessaire d’estimer la probabilité de certains évènements. Et plus la décision est importante, plus il est capital d’être précis. C’est pourquoi je me suis spécialisé dans un domaine particulier : la qualification de l’incertitude. Il s’agit de concevoir des outils pour doter la prédiction d’un phénomène d’un certain degré de confiance, tout en quantifiant également les incertitudes qui l’accompagnent... Et ce, dans le but de rendre plus fiables les algorithmes et de faciliter la prise de décisions.

Qu’est-ce que la modélisation des risques ? En quoi est-ce essentiel pour le métier d’assureur ?

Marine Habart : Le cœur de métier d’un assureur, c’est de prendre en charge les risques que nos clients ne peuvent assumer. Ce qui implique une double responsabilité : nous avons besoin de modéliser les risques de manière adéquate pour tarifer au mieux nos produits, et nous devons anticiper et rester vigilants quant à l’évolution potentielle de ces risques. L’enjeu d’une juste modélisation est de taille : si le risque est sous-estimé nous sommes exposés à des pertes qui peuvent mener à la faillite ; si le risque est surestimé, nous ne sommes plus compétitifs.

Madeleine-Sophie Deroche : Je suis spécialisée sur les sujets de modélisation des catastrophes naturelles, et mon travail d’évaluation du risque se concrétise au travers de 3 objectifs. Le premier est, comme le disait Marine, d’assurer la stabilité financière de nos activités et la capacité de règlement rapide des sinistres. Le second, d’affiner les prix et d’alerter en cas d’accumulation d’exposition dans les zones sensibles. Et enfin d’assurer la prévention pour alerter nos clients des risques naturels potentiels. 

Marine Habart : Il en va de même au niveau de la santé ! Pour l’évaluation du risque de pandémie par exemple, nous avons développé un modèle prospectif sophistiqué, au niveau mondial, qui tient compte d’une part de tous les paramètres liés aux virus pouvant émerger (transmissibilité, létalité, zone d’émergence, etc.) mais également des mesures d’atténuation qui pourraient être mises en place (vaccination, réduction de transport, quarantaines, etc.). Ce modèle intègre des paramètres de la situation mondiale actuelle : transports, positionnement des assurés AXA dans le monde, niveau de préparation des pays, température, etc.

Quelle place pour la qualification de l’incertitude dans ce processus ?

M-S. D. : Il est essentiel de pouvoir fonder nos décisions sur un certain degré de confiance dans nos résultats. Autrement dit, plutôt que de formuler une seule prédiction, il s’agit de l’attacher à une estimation haute et une estimation basse, de pouvoir y lier les différents paramètres qui peuvent altérer le résultat. L'un de nos principaux défis aujourd’hui consiste à concevoir nos modèles de manière à garantir la cohérence de la modélisation c’est-à-dire d’obtenir suffisamment de données précises pour pouvoir remplir efficacement nos missions.

Mais comment calculer ces incertitudes et comment les réduire ?

M.F. : Concrètement, calculer et réduire ces incertitudes suppose de faire fonctionner l’algorithme un grand nombre de fois afin de détecter et corriger les paramètres de manière plus précise. Malheureusement, c’est quelque chose qui peut être très coûteux en temps et en énergie. Prenons l’exemple d’un algorithme qui a un temps de calcul d’une semaine. A chaque changement de paramètre, il faudra attendre une semaine pour avoir un résultat quantifiable… Identifier puis réduire les incertitudes peut prendre des mois voire des années. Tout l’enjeu de mon travail est de faire face à ce problème en utilisant une approche probabiliste. L’idée est d’utiliser le langage des probabilités pour se greffer à ces algorithmes et déterminer quels sont les paramètres à modifier, comment atteindre le plus rapidement possible la solution avec la plus grande fiabilité… tout en minimisant les opérations nécessaires pour y arriver.

M.H. : C’est en effet ce qui a été très inspirant dans nos échanges : la possibilité de prendre de la hauteur sur cette question du temps de calcul et de son impact. Maurizio a même pu nous exposer un de ses projets actuels qui consiste à réduire l’impact environnemental de l’intelligence artificielle, avec une nouvelle approche de computation fondée sur la lumière. L’empreinte carbone de cette activité est en effet un point central d’attention pour nous. Nous cherchons toujours à optimiser les temps de calculs et les ressources associées lors de l’utilisation d’outils algorithmiques, ce qui, de fait, réduit notre impact carbone.

M-S. D. : Depuis 2016, grâce à l’internalisation des modèles basés sur l’intelligence artificielle que nous utilisons, nous avons développé une expertise et des outils qui nous permettent une plus grande flexibilité et une plus grande précision. L’intégration d’algorithmes de machine learning nous permet d’améliorer les performances de production, en particulier pour les périls météorologiques.

D’une manière générale, quelle a été votre perception de cette rencontre ?

M.H. : La recherche est un élément clé pour nos travaux. Notre rôle est d’anticiper les risques, de « calculer l’avenir » via nos modèles actuariels, sans pour autant avoir une boule de cristal... Il est donc fondamental de partager nos visions avec des chercheurs de différents horizons (démographes, épidémiologistes etc). Cette rencontre était une belle opportunité de le faire.

M-S. D. : Un de nos enjeux majeurs est en effet de garantir que la modélisation du risque que nous effectuons intègre de manière opérationnelle les dernières avancées scientifiques et technologiques. Selon le type d'application dont nous avons besoin, nous mettons en œuvre différents partenariats, notamment avec des chercheurs soutenus par AXA. C’est pour cela que cette rencontre était très enrichissante.

M.F. : Cela fait 7 ans que je suis financé par AXA et le fait d’avoir obtenu cette chaire m’a permis de monter une équipe et de travailler sur un sujet qui me passionne. Il me paraissait tout naturel et essentiel de contribuer à cet évènement en tant que scientifique. Nous avons eu un très bon échange avec les équipes AXA sur leurs travaux concernant le risque épidémique et climatique… En tant que chercheur, je trouve ces rencontres particulièrement précieuses, car elles contribuent à réduire le temps entre une découverte scientifique et ses applications concrètes.