IBM – Insurance 2025 – Reducing risk in an uncertain future

IBM a publié un rapport prospectif au mois de mars 2017 intitulé « Insurance 2025 – Reducing risk in an uncertain future« . Le rapport s’appuie sur des études menées par IBM Institue for Business Value, notamment auprès des CxOs du secteur de l’assurance dans les dernières années (note: Pas de liens fournis sur les études en question).

Les prédictions sont compliquées, surtout en ce qui concerne le futur.

Le rapport cherche à étudier l’arrivée prochaine de 2 technologies: informatique cognitive et systèmes décentralisés. Selon eux, cela permettra de faire basculer les prédictions du domaine de la magie à celui du scientifique! Du fait des incertitudes et des difficultés inhérentes à ce genre d’exercice de prospection, Insurance 2025 s’intéresse surtout à 2 axes:

  • Comment les technologies cognitives seront déployées: comme services ou comme outils propriétaires
  • Les opérations et la prise de décision se feront-elles à la volée dans des modèles distribués ou de manière centralisée dans des processus standardisés?

Le lien de téléchargement ne fonctionnant plus je vous mets à disposition le rapport ici, et vous trouverez sur leur site l’infographie à cette adresse.

Quelques constats

Le rapport prend l’exemple de l’arrivée des véhicules autonomes pour montrer, sur un cas « simple » la profondeur des changements qui sont à prévoir sur le secteur de l’assurance. Sur ce point, les premières projections tablent sur un déploiement dès 2020…

Il s’agit alors pour les cadres dirigeants d’avoir une vision de long terme de ce qui se profile pour préparer au mieux leurs organisations.

2 technologies pour 4 scénarios

2 technologies en particulier sont donc envisagées pour tenter de donner un peu de visibilité sur l’avenir:

  • Systèmes décentralisés: des composants de bas niveaux (objets connectés) exploitent des informations locales pour répondre automatiquement à des objectifs globaux sans influence centralisée. En clair, cela signifie qu’un capteur qui perçoit une information peut prendre directement la décision à appliquer en fonction d’un certain nombre de règles. On pense ici évidemment aux questions liées à la blockchain, aux smart contracts ou à l’assurance paramétrique.
  • Technologies cognitives: Tous les systèmes d’intelligence artificielle avancée. Ceux-ci peuvent raisonner, interagir naturellement avec des humains, et surtout apprendre de l’expérience. IBM considère une arrivée à maturité de ces technologies à l’horizon 2025. On pense ici au deep learning ou à Watson notamment.

Le potentiel de ces 2 technologies est très important, mais la nature leur implémentation est incertaine. IBM propose un modèle à 4 branches selon le niveau de décentralisation et d’autonomie des systèmes d’une part, et d’autre part, la profondeur d’application et les méthodes d’application des technologies cognitives.

Les 4 scénarios envisagés sont:

  • Central intelligence / Intelligence centralisée: forte centralisation et forte utilisation de l’intelligence cognitive comme services;
  • Swarm economy / Economie de l’essaim: Forte décentralisation et forte utilisation de l’intelligence cognitive;
  • Internet of Everything / Internet de Tout (par extension à l’Internet des Objets): Forte décentralisation, utilisation de l’intelligence cognitive de manière locale et propriétaire.
  • Survival of the fastest / Survie des plus rapides: Forte centralisation, utilisation de l’intelligence cognitive de manière locale et propriétaire.

Swarm economy / Economie de l’essaim

La dénomination de ce modèle provient de la « swarm intelligence », qui définit le comportement collectif de multiples éléments indépendants, décentralisés et auto-organisés. Il fait référence à une forte adoption des 2 technologies citées.

Dans ce modèle, chaque élément unitaire décide comment il doit agir, de manière indépendante, comme un humain le ferait. Tous partagent des informations selon des modalités d’échanges normalisées. Les décisions sont donc prises en fonction d’informations locales, mais aussi de données contextuelles globales. Ce type de modèle comporte de nombreux points de faiblesses (chaque élément en quelque sorte), mais au global, il permet de survivre même si un élément défaille.

Pour les assureurs, les impacts peuvent être les suivants

  • L’avancée vers des micro produits, associés à des objets connectés
  • Une nécessité de s’intégrer plus fortement dans la vie de tous les jours, avec des agents ou points de contacts de proximité
  • Des assisteurs sur place, qui peuvent gérer à la fois la réparation des défaillance ou soutenir l’augmentation des compétences humaines
  • Un transfert de responsabilité de l’assureur vers l’industriel qui fabrique les objets.
  • Le risque deviendrait alors fonction des défaillances techniques (pannes locales, interférences), dans un contexte où l’assureur n’a pas nécessairement accès à toutes les informations. Le chiffrage de ce risque est donc compliqué. (Note: je doute de cet accès limité, qui ne me semble pas correct)

Central intelligence / Intelligence centralisée

Dans ce scénario, la plupart des entreprises ont adopté l’intelligence cognitive, mais, pour des raisons diverses (réglementation, sécurité), la décentralisation demeure limitée.

Concrètement, cela signifie que les systèmes font remonter un certain nombre de données au niveau central. Celui-ci, après avoir appliqué des règles ou émis un jugement, prend une décision complexe et raisonnée.

Le gros avantage est une possibilité de prise de décisions avancée, fondée sur une grande quantité de données. L’inconvénient réside dans les questions de communication et de remontée de ces données. Ceci n’est pas important tant que c’est de l’expertise humaine qui prend ou assiste la prise de décision. Toutefois, cela pourrait s’avérer problématique dès lors que l’autonomie du système rend redondante l’expertise locale.

Les assureurs peuvent alors se retrouver à jouer le rôle d’agents intermédiaires entre des assurés et des partenaires (y compris hors assurance). En effet, ils ont accès à des informations et une connaissance fine de la vie quotidienne de leurs clients. L’assureur est donc un ange gardien qui s’appuie sur une observation de la vie quotidienne. L’accès à l’information est clé.

L’intelligence cognitive permettra à l’assureur d’apporter une valeur ajoutée à ses assurés sur différents axes, en lui préconisant des pratiques, actes de consommation, conseils, etc.

Le risque de perception type « Big Brother » est important, notamment sur les images de marque. Enfin, les assurés pourraient même en arriver à blâmer l’assureur de ne pas l’avoir prévenu de certains risques qu’il aurait dû déceler.

Internet of Everything / Internet de Tout

Ce scénario envisage la multiplication des objets connectés et capteurs divers et variés, sans ajout d’intelligence. Ces objets ne feraient alors que collecter et partager des données. Il pourrait exister de l’intelligence artificielle ou de la prise de décision non-humaine, mais sans toutefois être la norme.

Pour un assureur, l’accès aux données est une condition sine qua non à toute valeur ajoutée ou analyse du risque. En terme de produits, il y aurait alors une distinction par l’accès aux données:

  • D’un côté, des tarifs et des produits intéressants pour ceux qui ouvrent l’accès
  • De l’autre, des tarifs ou des niveaux de couvertures insuffisants pour ceux qui n’acceptent pas de données des informations à leur assureur.

C’est à nuancer évidemment en fonction de critères réglementaires ou de confidentialité.

L’assureur devient alors un inspecteur qui commence à proposer des micro-services de contrôle et surveillance. Les couvertures peuvent devenir conditionnées à certains critères (comportementaux par exemple).

Les assureurs sont toutefois confrontés à des challenges significatifs, notamment dans les interfaces entre des appareils pas toujours normalisées, et qui génère des risques additionnels.

Des questions de responsabilité sont soulevées dans le cas de défaillance car les objets restent sans intelligence. Par exemple, que se passe-t-il lorsque le thermostat tombe en panne et indique à la chaudière qu’il gèle dans la maison. L’assureur, par son engagement dans le contrôle mais sans complète maîtrise du risque s’en trouverait mis en cause.

Survival of the fastest / Survie des plus rapides

Le dernier scénario est une continuation du modèle existant. On en voit apparaître pour l’instant aucune uniformisation dans le déploiement des objets connectés (aucune norme commune pour l’instant). Côté intelligence cognitive, les premiers acteurs bénéficieront évidemment d’un effet positif car ils seront les seuls à détenir un niveau de détail encore inconnu.

C’est le scénario le moins disruptif et est très vulnérable à une consolidation du marché et à la réglementation qui s’y associerait.

Pour les assureurs, c’est le scénario le moins lucratif: moins de prise de risque et donc moins de récompense pour les vainqueurs. Néanmoins, on pourra assister à une recomposition du marché:

  • D’un côté les assureurs qui se tournent vers l’avenir et l’innovation, dans une spirale vertueuses
  • De l’autre, les suiveurs, qui se retrouveront en danger, ou qui disparaîtront.

A défaut d’accès aux données, les produits d’assurance se tourneront vers des couvertures à valeur ajoutée, comme l’assurance-as-a-service ou l’assurance-au-point-de-risque.

La distribution gardera son rôle fondamental. La capacité à construire des produits ou à effectuer son activité hors des schémas traditionnels sera un élément différenciant structurant.

Conclusion

Une comparaison des quatre modèles est proposée en synthèse.

De manière plus générale, « IBM Insurance 2025 » insiste sur plusieurs mouvements que les assureurs peuvent d’ores et déjà faire et qui ne seraient pas inutiles:

  • Se renforcer en se préparant à la cannibalisation: le déploiement d’outils flexibles, dans le cloud, as-a-service, avec une architecture et des services scalables, etc. Il s’agit de se préparer à être agile pour lutter contre de nouveaux acteurs.
  • Préparer des écosystèmes de partenaires: Les assureurs vont devoir collaborer, à la fois pour collecter des données et pour mieux analyser les risques. En creux, c’est la décomposition de la chaîne de valeur qui est annoncée. Il s’agit alors de se concentrer sur les activités cœur de métier et d’expertise et de transférer les autres au bon partenaire au bon endroit.
  • Accélérer la vitesse du changement: Comprendre les comportements des clients, les paramètres du risque et ce qui l’influence est important. S’y adapter rapidement voire avant les autres est essentiel.
  • S’ouvrir à l’innovation: il s’agit d’être proactif pour créer un climat, une culture, des processus tournés vers l’innovation. C’est un état d’esprit global qui doit venir du top management.

 

Note personnelle: Les conclusions sont malheureusement les mêmes que la plupart des études de ce type. Toutefois la manière d’aborder la question est novatrice et va plus loin que l’habituelle comparaison objets connectés / big data / blockchain qui manque de concret.