Insurance Nexus – Webinar Machine learning

Insurance Nexus, dont j’ai déjà parlé (ici ou ), a organisé cet été un webinar machine learning, intitulé « Exploiter le machine learning pour améliorer l’efficacité opérationnelle des sinistres, du marketing et de la tarification« . En anglais, « Leverage machine learning to drive operational efficiencies in claims, marketing and pricing ».

Description du webinar machine learning

Un enregistrement en a été fait et communiqué aux participants. Vous le retrouverez ci-dessous. (durée: 1h)

4 participants ont présenté leur retour d’expérience:

Voici les éléments clés à retenir des cas d’usage présentés.

Le big data au service de la connaissance client – Groupama Assicurazioni – Paola Scarabotto

La présentation de Groupama Assicurazioni présente tout d’abord les 5 axes sur lesquels l’intelligence artificielle peut être utilisée selon eux dans l’assurance.

webinar machine learning

Puis, ils détaillent un exemple qu’ils ont mis en place, autour de la connaissance client. L’objectif étant de compléter les données disponibles dans les systèmes internes par un enrichissement venant de toute source externe (réseaux sociaux, internet, etc.). Cela leur permet d’obtenir une base de données complète sur laquelle appuyer leurs analyse big data et machine learning. (Note: la question de l’architecture et de la quantité et qualité des données est un point à la marge du machine learning, mais toutefois important à prendre en considération).

webinar machine learning

Le machine learning au service du tri des demandes clients entrantes – La Mutuelle Générale – Stéphane Barde

La présentation de la Mutuelle Générale s’oriente sur un retour d’expérience autour du traitement des demandes entrantes (essentiellement mails).

Le mode de fonctionnement historique s’appuie sur un superviseur qui classe les demandes, les priorise et les répartie à la bonne personne.

webinar machine learning

Il ont progressivement remplacé ce travail manuel par 3 couches de machines learning:

  • Classification: machine learning supervisé. L’objectif est de s’appuyer sur l’historique et la manière dont les mails ont été classés dans le passé pour déterminer des règles de classement pour le futur. Une quinzaine de catégories ont été définies en amont. (Note: C’est le principe même des filtres bayésiens anti-spams).
  • Priorisation: Analyse des sentiments et Natural Language Processing (NLP). Via une analyse sémantique, il s’agit de définir si le client est satisfait ou pas, et s’il attend une réponse urgente ou normale. Ceci est plus difficile à effectuer car aucun historique de données n’existe.
  • Répartition: (Note: petite coquille dans le support): machine learning supervisé. C’est ici le même principe que pour la classification. Le robot observe comment, par le passé, tel ou tel type de dossier a été transféré à tel gestionnaire, et reproduit le même comportement. (Note: Cela fait abstraction de la disponibilité des gestionnaires. Cela fonctionne donc pour du mail qui tombe dans une corbeille d’équipe par exemple, mais peut provoquer des goulets d’étranglement pour des gestionnaires experts sur des niches, ou en cas de traitement d’appels entrants).

webinar machine learning
Enfin, une précision importante est apportée: le rôle du superviseur ne disparaît pas, mais évolue vers un rôle d’amélioration de l’apprentissage du robot et de traitement des cas auxquels le robot n’est pas capable d’attribuer un score certain.

Le message clé à retenir de son intervention est que ces travaux sont itératifs. Il faut commencer petit puis progressivement améliorer les paramétrages.

L’intelligence artificielle au service de la gestion des sinistres – IBM Watson – Noel Garry

L’équipe d’IBM rappelle que l’intelligence artificielle ne sait faire que ce qu’on lui a appris. En revanche, lorsque l’apprentissage est effectué, la fiabilité et la finesse d’identification peut être très importante.

Ainsi, ils donnent un retour d’expérience sur l’apprentissage de reconnaissance visuelle autour de photographies de sinistres. Le robot est alors capable de pré-alimenter l’essentiel des données du sinistre et ainsi de faire gagner un temps significatif lors de la gestion de ce sinistre.

Par exemple, la reconnaissance visuelle est capable de faire la différence entre un pare-brise en bon état et un pare brise cassé (ce qui permet d’évacuer la fraude) et de proposer une estimation du coût des réparations.

webinar machine learning

De manière plus globale sur le traitement du sinistre, l’automatisation peut être plus importante, notamment sur tous les éléments ci-dessous, grâce à un process de déclaration réduit à 2 étapes: prise de photo et enregistrement vocal d’une description du sinistre.

  • Reconnaissance visuelle
  • Ajout automatique des données de lieu, date, heure, grâce aux données gps et d’horodatage des photos
  • Récupération des données du client et du contrat, et contrôle des garanties
  • Récupération de données météo
  • Analyse vocale (speech to text + analyse sémantique + analyse tonale)
  • Identification du garage le plus proche

webinar machine learning

Un deuxième exemple fourni par IBM concerne le traitement des textes réglementaires. Plus précisément, il s’agit d’apprendre aux robots à analyser les importants textes législatifs et identifier les impacts métiers pour les assureurs, par ligne métier ou par processus.

Les réseaux neuronaux pour améliorer l’analyse du risque et la tarification – The Co-operators – Clement Brunet

Cet assureur canadien est le premier à avoir proposé une assurance prenant en compte le risque d’inondation.

Toutefois, pour ce faire, il fallait pouvoir modéliser le risque et s’appuyer sur des données de qualité, notamment les courbes d’altitudes. Ces informations n’étaient pas fiables, comme le montre l’exemple soumis par The Co-operators.

Sur la première image, on voit le croisement de données d’altitude existantes avec les photos satellites. Celles-ci laissent penser que le parc  est une colline alors que ce n’est pas le cas. En réalité, les données d’altitude considéraient que le sommet des arbres était le niveau d’altitude du sol.

webinar machine learning

Il fallait alors corriger ces données successivement en enseignant à l’intelligence artificielle certaines corrections à appliquer pour obtenir une modélisation de l’altitude au niveau national de qualité.

The Co-operators a donc procédé par itérations successives pour améliorer son modèle et obtenir pour le territoire entier une carte corrigée.

Une fois ces données disponibles, il ne reste plus qu’à modéliser les risques d’inondation par des géographes puis de croiser avec la valorisation moyenne des habitations.

Note: il n’est pas précisé ce qu’ils entendent pas réseaux neuronaux. Nous y reviendrons dans un autre article.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *