header curve

L’IA dans le secteur de l’assurance

L’intelligence artificielle est désormais incontournable dans le monde des affaires au quotidien. Mais quel rôle joue déjà l’IA dans le secteur de l’assurance aujourd’hui ? Comment les assureurs perçoivent-ils cela et quelles opportunités et risques identifient-ils ? Nous avons posé ces questions à Ellen Tobback (AXA Belgique), Matthias Meul (AG Insurance) et au spécialiste Gabriel Mattys (GMCOLAB).

Lorsque nous posons la question du rôle de l’IA chez AG Insurance à Matthias Meul, chef des insights clients et de l’analytique, il répond de manière quelque peu surprenante : « Si nous définissons l’IA comme
la création de machines intelligentes prenant des décisions autonomes, alors nous sommes très prudents à ce sujet aujourd’hui. Nous menons de nombreuses recherches sur les possibilités d’optimiser nos processus via l’intelligence artificielle, et bien que nous comprenions que les outils d’IA pourraient grandement faciliter notre vie, nous évaluons toujours soigneusement la valeur ajoutée des outils par rapport aux risques qui y sont associés. Aujourd’hui, nous voyons les principaux cas d’utilisation surtout en coulisses, et non dans le contact direct avec les clients et les courtiers. Actuellement, nous utilisons
déjà plusieurs techniques plus classiques de science des données dans nos différents services et processus.

Ellen Tobback insiste également sur l’importance de la vérification humaine. « Lorsque nous parlons d’IA générative, qui crée elle-même des textes ou du code, un tel contrôle humain est absolument nécessaire. Nous sommes conscients des risques que cela comporte. Cependant, nous utilisons déjà plusieurs outils d’IA non générative dans notre entreprise, tant pour les processus internes que pour les applications impliquant des interactions avec les clients. »

« Ne pas vérifier le travail effectué par les outils d’IA est probablement la plus grande erreur que l’on puisse commettre. »

Faire confiance, mais vérifier

Pouvez-vous donner quelques exemples de domaines où vous utilisez des outils d’IA ?

Ellen Tobback: Par exemple, pour faciliter les processus internes. Pensez à la traçabilité automatique et à la redirection des e-mails vers la bonne personne chez AXA Belgique et avec la bonne priorité. Ou pour traiter automatiquement le contenu de certains documents et automatiser ainsi les processus.

Mais même dans certains processus impliquant directement les clients, nous utilisons des applications d’IA. Par exemple, les clients peuvent soumettre en ligne un dossier de sinistre auto. Ils nous fournissent les informations nécessaires, y compris le constat amiable, et ensuite un nouveau dossier de sinistre est automatiquement ouvert dans nos plates-formes. Notre modèle d’IA identifie les circonstances de l’accident et la personne responsable. Le client a alors la possibilité de choisir un réparateur agréé et de prendre un rendez-vous quelques minutes plus tard. Cela fonctionne évidemment pour tous les dossiers, mais surtout pour des accidents standard fréquents. Pour les dossiers plus complexes, cela est transmis à un gestionnaire de sinistres. Le client reçoit un numéro de sinistre de notre part et peut suivre l’évolution du dossier de cette manière. Bien entendu, nous tenons le courtier informé dans tous les cas en continu.

Matthias Meul: La programmation est également parfaitement adaptée aux applications d’IA. Pensez par exemple aux compléments automatiques de codes que nous écrivons.

Gabriel Mattys: La programmation de code est en effet l’un des domaines où l’IA est déjà massivement utilisée aujourd’hui. Que ce soit pour créer du code, l’optimiser ou détecter des erreurs. Mais un contrôle humain ultérieur est essentiel.

Matthias Meul: Nous croyons fortement dans le potentiel de la science des données et donc de l’IA pour nous aider à analyser nos énormes quantités de données. Par exemple, pour déterminer les facteurs potentiels qui influent sur la satisfaction des clients ou pour mieux comprendre les besoins des clients. Cela nécessite le traitement, l’interprétation et la liaison d’une masse de données, et l’IA peut certainement aider dans ce domaine. Nous classons également automatiquement les e-mails entrants de manière automatique.

Mais comprenons-nous que l’humain a toujours le dernier mot ?

Matthias Meul: Absolument. Faire confiance, mais vérifier est un principe essentiel. Nous examinons comment nous pouvons être assistés par des outils d’IA, mais la prudence est de mise. Nous utilisons les outils, par exemple pour accélérer les processus et augmenter notre productivité, mais pas aveuglément.

Ellen Tobback: Je le vois comme une équipe. Regardez par exemple la détection de fraude. L’IA repère dans les dossiers de sinistres des choses que les gestionnaires ne voient pas, et vice versa. Les deux se renforcent mutuellement.

Gabriel Mattys: Les outils d’IA peuvent prendre en charge jusqu’à 85 ou 90% du travail dans certains processus, si l’IA a été formée avec des informations spécifiques à l’entreprise. Une vérification finale est toujours nécessaire. Ne pas vérifier le travail que font les outils d’IA est probablement la plus grande erreur que l’on puisse commettre.

Un chatbot sur votre site auquel les clients peuvent demander s’ils sont couverts pour certains risques…

Matthias Meul: … nous ne le lancerons pas actuellement chez AG Insurance. Nous ne pensons pas que les outils d’IA sont suffisamment fiables aujourd’hui pour donner toujours et partout une réponse correcte. Et nous ne voulons pas prendre le risque qu’un client ou un courtier reçoive des informations incorrectes. Nos partenaires de distribution sont idéalement placés pour aider nos clients à cet égard. Nous pourrions envisager l’IA comme une précieuse assistante à l’avenir, à condition qu’elle soit utilisée par les bonnes personnes et soutenue par des processus corrects. Nous ne considérons pas l’IA comme un décideur.

Ellen Tobback: Je pense qu’un tel chatbot pour les clients pourrait être possible un jour, mais actuellement je le trouve aussi trop risqué. Vous demandez à l’IA d’interpréter la question du client, de rechercher la police appropriée, de lire les conditions, de juger s’il y a une couverture et finalement de formuler une réponse correcte au client. Ce risque est actuellement trop élevé.

Gabriel Mattys: En ce qui concerne la réponse aux questions des clients, je fais une distinction entre les questions générales et les questions spécifiques au dossier. Les questions générales peuvent facilement être incluses dans une FAQ sur votre site web ou répondues par un chatbot, car la réponse est toujours la même. Les questions spécifiques au dossier sont beaucoup plus complexes et nécessitent un accès aux données des clients. Il va de soi que vous devez être beaucoup plus prudent dans ce cas. Non seulement parce que vous voulez vous assurer que les informations fournies sont correctes, mais aussi pour des raisons de sécurité. Vous voulez absolument éviter une fuite de données !

Matthias Meul: En comparaison, un chatbot qui répond à nos propres employés et les aide, par exemple en signalant des incidents techniques, nous semble tout à fait envisageable. Cela augmente en effet l’efficacité, tout en réduisant considérablement le risque par rapport à une communication directe avec les clients.

Nous testons constamment des choses. Par exemple, nous essayons de voir si nous pouvons faire reconnaître automatiquement par l’IA les dommages aux voitures à partir de photos. Mais nous constatons que même à un niveau assez basique, des ajustements supplémentaires sont nécessaires pour assurer l’intégration avec nos systèmes. Bien que l’IA soit prometteuse, nous n’en sommes pas encore au point où nous pouvons simplement laisser des outils agir sans contrôle sur nos processus commerciaux.

Ellen Tobback: Nous préférons également les cas d’utilisation internes, tels qu’un chatbot pour les administrateurs internes. Nous voyons de nombreuses possibilités d’utiliser des chatbots internes pour des questions RH, des tickets IT, pour accélérer l’intégration des nouveaux employés, … La technologie est encore nouvelle : nous testons activement et explorons les possibilités et les limites.

« Bien que l’IA soit prometteuse, nous n’en sommes pas encore au point où nous pouvons simplement laisser des outils agir sur nos processus commerciaux sans contrôle. »

Hallucinations

Voyez-vous d’autres risques que des informations incorrectes ?

Matthias Meul: L’IA ne peut être utile que si les données entrées dans l’outil sont de qualité. Sinon, on se retrouve avec le phénomène du ‘garbage in, garbage out’. Cela doit donc être pris en compte !

De plus, il existe le risque que les outils d’IA « hallucinent », pour ainsi dire, et créent plus de chaos qu’ils n’apportent d’efficacité. Ils peuvent penser détecter des motifs ou des objets qui n’existent pas, ce qui entraîne des résultats totalement inexacts. Nous voulons donc apprendre à connaître ces outils et comprendre les ajustements nécessaires pour les adapter à nos besoins.

Ellen Tobback: Les hallucinations des outils d’IA sont en effet possibles. Vous ne voulez pas qu’un outil d’IA dise n’importe quoi ou réagisse même de manière offensante envers les clients.

Matthias Meul: La sécurité est également un facteur crucial en matière d’IA. Par exemple, il y a l’exemple d’une entreprise qui a interdit l’utilisation de ChatGPT après que des employés aient révélé accidentellement des informations sensibles au chatbot. Ces types de risques doivent être évités à tout prix, cela va de soi.

Ellen Tobback: Pour le développement de l’IA, nous travaillons en étroite collaboration avec la sécurité informatique. Les outils que nous ouvrons au monde extérieur sont donc très fortement sécurisés.

Interne vs externe

Essayez-vous de développer largement des outils d’IA en interne, ou collaborez-vous avec des partenaires externes à cet effet ?

Matthias Meul: Nous adoptons une approche pragmatique et évitons de consacrer beaucoup d’efforts à un développement qui pourrait être disponible « off the shelf ». Mais si nous utilisons des outils existants, nous voulons être sûrs à 100% que nos données stratégiques et clients sont maximalement protégées. La sécurité des données est vraiment cruciale. Notre infrastructure est donc fortement protégée. Nous recherchons donc toujours des moyens très sécurisés d’expérimenter avec des outils d’IA.

N’oubliez pas que le niveau de compétence requis pour que les employés travaillent avec des modèles IA ouverts est très élevé. Vous devez avoir des connaissances en science des données, gestion d’API, règles de confidentialité, gouvernance des données et ingénierie des données… Il s’agit toujours du lien entre l’IA d’une part et les bons processus et personnes d’autre part.

Ellen Tobback: Chez AXA Belgique également, nous optons pour une approche pragmatique et mettons l’accent sur la sécurité. Nous travaillons par exemple avec Secured GPT, un environnement extra sécurisé dans lequel nos employés peuvent faire appel à ChatGPT.

Un grand potentiel

Comment voyez-vous l’avenir proche de l’IA ?

Ellen Tobback: À l’avenir, les applications d’IA seront intégrées dans les outils et applications quotidiens de chaque employé. De plus, le tandem homme-IA deviendra encore plus fort : il y aura plus de processus où nous pourrons utiliser l’IA pour reconnaître des motifs et faire des propositions ciblées à nos employés internes, par exemple dans la souscription, la gestion des sinistres, les ventes et le marketing. De cette manière, cela renforcera encore la qualité de notre service.

« Pour le développement de l’IA, nous travaillons en étroite collaboration avec la sécurité informatique. Les outils que nous ouvrons au monde extérieur sont donc fortement sécurisés. »

Matthias Meul: Le potentiel est sans aucun doute énorme, et l’IA peut certainement être un élément déterminant, mais pour les bonnes applications. Il s’agit principalement de l’efficacité des processus. Je donne un exemple. Pour déclarer un sinistre, les clients doivent souvent remplir un document spécifique aujourd’hui. Avec l’évolution des systèmes d’IA, les informations nécessaires au règlement pourraient éventuellement être extraites de manière plus automatique à partir d’un e-mail ou d’une lettre. Cela accélérerait non seulement notre fonctionnement, mais améliorerait également l’expérience client. C’est là que je vois certainement des possibilités. Car si nous pouvons optimiser nos processus, nos spécialistes et partenaires de distribution auront plus de temps pour s’occuper du client. Et tout le monde en profitera.

Ellen Tobback: Lorsque je donne des présentations sur l’IA et que les gens apprennent que je travaille dans le secteur de l’assurance, j’obtiens souvent la réaction qu’ils ne peuvent pas imaginer que l’IA puisse jouer un rôle important dans les assurances. Alors que ce que fait l’IA correspond parfaitement à l’activité principale des assurances : protéger les personnes, en analysant des données, en prévoyant des scénarios futurs et en construisant des modèles intelligents. C’est précisément pour cette raison que l’IA a certainement sa place dans notre secteur, et nous sommes même assez avancés en matière de données et de maturité en matière d’IA.

À quel point l’IA sera-t-elle omniprésente à l’avenir ?

Gabriel Mattys: De nombreuses applications d’IA sont actuellement en cours de développement. Toutes les grandes entreprises technologiques telles que Google, Microsoft et Meta intègrent l’IA générative dans leurs applications. Vous trouverez des applications d’IA dans des programmes que vous utilisez quotidiennement. Il sera facile de développer une présentation PowerPoint à partir d’un texte dans Word, par exemple. L’évolution se fait même si rapidement que cela peut parfois être effrayant. Nous pouvons certainement nous attendre à une forte augmentation de notre productivité grâce à l’IA. Certains emplois seront inévitablement perdus. Mais en général, les employés ne seront pas remplacés par l’IA, mais par d’autres employés qui utilisent des outils d’IA.

Ce qui me préoccupe, c’est la facilité avec laquelle l’IA peut être utilisée à des fins de fraude. Il est facile de copier la voix de quelqu’un et de lui faire dire des choses qu’il n’a jamais dites. Cela crée un terrain propice aux personnes mal intentionnées. Je m’attends donc à une explosion du nombre de tentatives de phishing. Nous devrons trouver des moyens de faire face à cela.

Qu’en est-il de la réglementation ?

Gabriel Mattys: Cela fait l’objet de travaux acharnés en ce moment. L’UE attend des entreprises développant des outils d’IA qu’elles offrent une transparence maximale sur la manière dont leurs modèles sont formés. Il faudra probablement attendre 2026 avant que la réglementation européenne entre en vigueur. Les entreprises d’IA feraient donc bien de travailler dès aujourd’hui sur ce haut degré de transparence. De plus, il est nécessaire de clarifier des aspects tels que les droits d’auteur sur les textes et images générés par l’IA. Il reste donc beaucoup de travail pour les législateurs.

Conseils pour démarrer vous-même avec l’IA

Comment mettre en place les premières étapes de l’intelligence artificielle dans votre bureau ? Gabriel Mattys vous donne des conseils concrets :

  • Ne vous lancez pas dans des projets informatiques de grande envergure si vous voulez commencer avec l’IA. Une approche pragmatique est la meilleure. Réfléchissez d’abord à votre activité quotidienne. Où consacrez-vous beaucoup d’heures de travail et où aimeriez-vous organiser les choses de manière plus efficace ? Recherchez dans ces domaines des outils d’IA qui peuvent vous aider.
  • Il est important de savoir ce que des programmes tels que ChatGPT peuvent faire et ne peuvent pas faire. Désignez un employé qui approfondira ses connaissances sur les possibilités de l’IA et les partagera avec ses collègues.
  • Considérez les outils d’IA comme un assistant ou un stagiaire, qui allège votre travail ou le rend plus productif. Mais vous devez toujours vérifier la qualité du résultat des outils d’IA. Gardez à l’esprit que les solutions d’IA peuvent parfois donner des réponses incorrectes, tout comme les humains. De plus, si vous posez la même question cinq fois à un outil d’IA, il y a de fortes chances que vous n’obteniez pas cinq fois la même réponse.
  • Comment travailler au mieux avec ChatGPT ou d’autres outils d’IA ? Donnez des instructions à ces programmes et affinez-les ensuite avec des questions de suivi. La manière dont vous posez les questions est cruciale aujourd’hui. À mesure que ces outils se développeront et deviendront encore plus intelligents, la forme des questions deviendra probablement moins importante.
  • L’IA est une mentalité. Tout comme nous utilisons Google au quotidien aujourd’hui, vous pouvez parfaitement utiliser des outils tels que ChatGPT tous les jours.
  • Si vous travaillez avec ChatGPT, optez pour la version payante. Elle est beaucoup plus performante et offre bien plus de possibilités que la version gratuite.

Partagez ce message avec vos connaissances

facebook linkedin