header curve

AI in de verzekeringsbranche

Artificiële intelligentie is niet langer weg te denken uit de dagelijkse business. Maar welke rol speelt AI vandaag al in de verzekeringssector? Hoe kijken verzekeraars hier tegenaan en welke opportuniteiten en risico’s detecteren ze? We vroegen het aan Ellen Tobback (AXA Belgium), Matthias Meul (AG Insurance) en specialist Gabriel Mattys (GMCOLAB). Wanneer we de vraag …

Artificiële intelligentie is niet langer weg te denken uit de dagelijkse business. Maar welke rol speelt AI vandaag al in de verzekeringssector? Hoe kijken verzekeraars hier tegenaan en welke opportuniteiten en risico’s detecteren ze? We vroegen het aan Ellen Tobback (AXA Belgium), Matthias Meul (AG Insurance) en specialist Gabriel Mattys (GMCOLAB).

Wanneer we de vraag naar de rol van AI bij AG Insurance voorleggen aan Matthias Meul, Hoofd customer insights & analytics, heeft die een ietwat verrassend antwoord in petto: “Als we AI definiëren als het creëren van intelligente machines die autonoom beslissingen nemen, dan zijn we daar vandaag heel voorzichtig mee. We voeren heel wat onderzoek naar mogelijkheden om onze processen te optimaliseren via artificiële intelligentie en ook al begrijpen we dat AI-tools ons het leven fors zouden kunnen vergemakkelijken, toch maken we steeds een grondige afweging tussen de toegevoegde waarde van tools en het risico dat eraan verbonden is. We zien de belangrijkste use cases vandaag dan ook vooral achter de schermen, en niet in het rechtstreekse contact met klanten en makelaars. We gebruiken vandaag de dag wel al meerdere meer klassieke data science-technieken doorheen onze verschillende diensten en processen.

Ook Ellen Tobback, Hoofd AI Analytics Innovation bij AXA Belgium, benadrukt het belang van menselijke verificatie. “Als we het hebben over generatieve AI, dat zelf teksten of code ontwikkelt, dan is zo’n menselijke controle een absolute noodzaak. We zijn ons immers bewust van de risico’s die dit meebrengt. Wel gebruiken we vandaag al een aantal niet-generatieve AI-tools in ons bedrijf, zowel voor interne processen als voor toepassingen waarbij interacties met klanten gebeuren.”

“Het werk dat AI-tools voor je doen niet nakijken, is zowat de grootste fout die je kan maken.”

Trust but verify

Kan je enkele voorbeelden geven van domeinen waar jullie AI-tools inzetten?

Ellen Tobback: Bijvoorbeeld om interne processen te faciliteren. Denk aan het automatisch traceren en doorsturen van e-mails naar de juiste persoon binnen AXA Belgium en met de juiste prioriteit. Of om de inhoud van bepaalde documenten automatisch te laten verwerken en zo processen te automatiseren.

Maar ook bij een aantal processen waarbij klanten rechtstreeks betrokken zijn, werken we met AI-toepassingen. Zo kunnen klanten online een schadedossier Auto indienen. Ze bezorgen ons de nodige info, inclusief het aanrijdingsformulier, en vervolgens wordt in onze platformen automatisch een nieuw schadedossier geopend. Ons AI-model identificeert de omstandigheden van het schadegeval en wie er aansprakelijk is. De klant krijgt enkele minuten later al meteen de kans om een erkende hersteller te kiezen en een afspraak te maken. Dit lukt natuurlijk niet voor alle dossiers, maar wel voor vaak voorkomende standaardongevallen. Gaat het om een complexer dossier, dan wordt dit doorgestuurd naar een schadebeheerder. De klant krijgt van ons een schadenummer en kan langs die weg de voortgang van het dossier volgen. Uiteraard houden we de makelaar in alle gevallen continu op de hoogte.

Matthias Meul: Ook programmeerwerk leent zich perfect tot AI-toepassingen. Denk bijvoorbeeld aan automatische aanvullingen van codes die we schrijven.

Gabriel Mattys: Programmatie van code is inderdaad één van de domeinen waar AI vandaag al massaal ingezet wordt. Zowel voor het creëren van code als voor het optimaliseren ervan of het detecteren van fouten. Maar een menselijke controle achteraf is een must.

Matthias Meul: We geloven sterk in het potentieel van data science en dus ook AI om ons te helpen onze immense hoeveelheden data te analyseren. Bijvoorbeeld om te achterhalen wat mogelijke factoren zijn die klantentevredenheid bepalen of om behoeften van klanten beter te begrijpen. Hiervoor moet een massa data verwerkt, geïnterpreteerd en gelinkt worden, en daarbij kan AI zeker helpen. Voorts classificeren we ook al inkomende e-mails op een automatische manier.

Maar we begrijpen dat de mens altijd het laatste woord heeft?

Matthias Meul: Zeker. Trust but verify is een essentieel principe. We bekijken hoe we ons kunnen laten assisteren door AI-tools, maar voorzichtigheid blijft geboden. We gebruiken de tools, bijvoorbeeld om processen te versnellen en onze productiviteit te verhogen, maar niet blind.

Ellen Tobback: Ik zie het als een tandem. Kijk bijvoorbeeld naar fraudedetectie. AI merkt in schadedossiers dingen op die beheerders niet zien, en omgekeerd. Beide versterken elkaar.

Gabriel Mattys: AI-tools kunnen in bepaalde processen tot 85 of 90% van het werk overnemen, als de AI getraind werd met bedrijfsspecifieke informatie. Een finale check is sowieso nodig. Het werk dat AI-tools voor je doen niet nakijken, is zowat de grootste fout die je kan maken.

Een chatbot op jullie site waaraan klanten kunnen vragen of ze gedekt zijn voor bepaalde risico’s …

Matthias Meul: … gaan we op dit moment niet lanceren bij AG Insurance. We geloven niet dat AI-tools vandaag voldoende error proof zijn dat ze altijd en overal een correct antwoord zullen geven. En we willen niet het risico lopen dat een klant of de makelaar foute info krijgt.

Onze distributiepartners zijn ideaal geplaatst om onze klanten hierin te assisteren. We zouden AI in de toekomst als een waardevolle assistent kunnen zien op voorwaarde dat dit gebruikt wordt door de juiste mensen en ondersteund door correcte processen. We beschouwen AI niet als een beslissingsnemer.

Ellen Tobback: Ik denk dat zo’n chatbot naar klanten ooit wel mogelijk zal zijn, maar momenteel vind ik het ook te risicovol. Je vraagt dan AI om de vraag van de klant te interpreteren, de juiste polis op te zoeken, de voorwaarden te lezen, te oordelen of er dekking is en finaal ook een correct antwoord te formuleren naar de klant. Dat risico is vandaag te hoog.

Gabriel Mattys: Als het gaat om het beantwoorden van vragen van klanten, maak ik een onderscheid tussen algemene en dossierspecifieke vragen. Algemene vragen kan je makkelijk in een FAQ op je website stoppen of via een chatbot laten beantwoorden. Het antwoord is immers steeds hetzelfde. Dossierspecifieke vragen zijn een stuk complexer en vereisen toegang tot de data van klanten. Het spreekt voor zich dat je hier veel voorzichtiger mee moet zijn. Niet alleen omdat je er zeker van wil zijn dat de gegeven info klopt, maar ook om beveiligingsredenen. Een datalek wil je immers absoluut vermijden!

Matthias Meul: Ter vergelijking: een chatbot die onze eigen medewerkers te woord staat en helpt, bijvoorbeeld rond het melden van technische incidenten, zien we wel helemaal zitten. Het zorgt immers voor meer efficiëntie, terwijl het risico veel kleiner is dan in een rechtstreekse communicatie met klanten.

We testen continu dingen uit. Bijvoorbeeld of we schade aan auto door AI automatisch kunnen laten herkennen aan de hand van foto’s. Maar dan merken we dat er zelfs op een vrij basic niveau extra aanpassingen nodig zijn om integratie met onze systemen te verzekeren. Hoe veelbelovend AI ook is, we zijn nog niet zo ver dat we tools zomaar zonder controle los kunnen laten op onze bedrijfsprocessen.

Ellen Tobback: Ook wij geven eerder de voorkeur aan interne use cases, zoals een chatbot voor interne beheerders. We zien veel mogelijkheden om interne chatbots in te zetten voor HR-vragen, IT-tickets, om de onboarding van nieuwe werknemers te versnellen, … De technologie is nog nieuw: we zijn volop aan het testen en bekijken de mogelijkheden en beperkingen.

“Hoe veelbelovend AI ook is, we zijn nog niet zo ver dat we tools zomaar zonder controle los kunnen laten op onze bedrijfsprocessen.”

Hallucinaties

Zie je nog andere risico’s dan foute info?

Matthias Meul: AI kan enkel nuttig zijn als de data-input in de tool kwalitatief goed is. Anders krijg je het ‘garbage in, garbage out’-fenomeen. Hier moet dus zeker rekening mee gehouden worden!

Daarnaast bestaat de kans dat AI-tools ”hallucineren”, om het zo te zeggen, en meer chaos creëren dan efficiëntie. Ze kunnen patronen of objecten denken te detecteren die niet bestaan waardoor totaal onnauwkeurige resultaten ontstaan. We willen daarom deze tools leren kennen en begrijpen welke aanpassingen nodig zijn om ze aan te passen aan onze noden.

Ellen Tobback: Hallucinaties van AI-tools zijn inderdaad mogelijk. Je wil niet dat een AI-tool zomaar eender wat gaat zeggen of zelfs vrij offensief gaat reageren tegen klanten.

Matthias Meul: Ook beveiliging is een cruciale factor als het om AI gaat. Zo is er het voorbeeld van een bedrijf dat het gebruik van ChatGPT verboden heeft nadat medewerkers per ongeluk gevoelige informatie aan de chatbot hadden onthuld. Dat soort risico’s moet te allen prijze vermeden worden, dat spreekt voor zich.

Ellen Tobback: Voor AI-ontwikkelingen werken we erg nauw samen met IT-security. Tools die we openzetten naar de buitenwereld, worden dan ook zeer sterk beveiligd.

Intern vs extern

Trachten jullie AI-tools grotendeels intern te ontwikkelen, of werken jullie hiervoor met externe partners samen?

Matthias Meul: We gaan hier pragmatisch mee om en vermijden om zelf veel effort te steken in een ontwikkeling die misschien ‘off the shelf’ beschikbaar is. Maar als we bestaande tools inzetten, willen we er wel 100% zeker van zijn dat onze strategische en klantendata maximaal beschermd zijn. Dataveiligheid is echt cruciaal. Onze infrastructuur wordt dan ook sterk beschermd. We zoeken dus steeds naar sterk beveiligde manieren om met AI-tools te experimenteren.

Vergeet ook niet dat de vereiste skillset van medewerkers om met open AI-modellen te werken, erg groot is. Je moet kennis hebben van data science, API-management, regels inzake privacy, data governance en data-engineering, … Het gaat altijd om de link tussen AI enerzijds en de juiste processen en mensen anderzijds.

Ellen Tobback: Ook bij AXA Belgium kiezen we voor een pragmatische aanpak én voor een sterke focus op veiligheid. Zo werken we met Secured GPT, een extra beveiligde omgeving waarin onze medewerkers een beroep kunnen doen op ChatGPT.

Groot potentieel

Hoe zie je de nabije toekomst van AI?

Ellen Tobback: In de toekomst zullen AI-toepassingen geïntegreerd worden in de day-to-day-tools en toepassingen van elke medewerker. Daarnaast zal de tandem mens-AI nog sterker worden: er zullen meer processen ontstaan waar we AI kunnen gebruiken om patronen te herkennen en gericht voorstellen te doen naar onze interne medewerkers: bijvoorbeeld bij de onderschrijving, het schadebeheer en sales en marketing. Op die manier zal het de kwaliteit van onze service nog versterken.

“Voor AI-ontwikkelingen werken we erg nauw samen met IT-security. Tools die we openzetten naar de buitenwereld, worden dan ook zeer sterk beveiligd.”

Matthias Meul: Het potentieel is ongetwijfeld enorm en AI kan zeker een game changer zijn, maar wel voor de juiste toepassing. Het gaat vooral over efficiëntie van processen. Ik geef een voorbeeld. Om een schade aan te geven, moeten klanten vandaag vaak een bepaald document invullen. Door de evolutie van AI-systemen kan mogelijks op een meer automatische manier de noodzakelijke informatie voor de afhandeling uit een e-mail of brief  gehaald worden. Dit zou niet enkel onze werking versnellen, maar ook de klantenervaring verbeteren. Daar zie ik dus zeker mogelijkheden. Want als we onze processen kunnen optimaliseren, dan hebben onze specialisten en distributiepartners meer tijd om zich met de klant bezig te houden. En daar wordt iedereen beter van.

Ellen Tobback: Als ik presentaties geef over AI en mensen horen dat ik in de verzekeringssector actief ben, dan krijg ik vaak de reactie dat ze zich niet kunnen voorstellen dat AI in verzekeringen een belangrijke rol kan spelen. Terwijl wat AI doet perfect in de core business van verzekeringen past: het beschermen van mensen, waarbij het analyseren van data, het voorspellen van toekomstige scenario’s en het bouwen van slimme modellen een belangrijke rol spelen. Precies daardoor heeft AI zeker een plek in onze sector en staan we zelfs al redelijk ver op het vlak van data en AI-maturiteit.

Hoe alomtegenwoordig zal AI in de toekomst worden?

Gabriel Mattys: Er worden vandaag worden tal van AI-tools gebouwd. Alle grote techbedrijven, zoals Google, Microsoft en Meta, integreren generatieve AI in hun toepassingen. Je zal AI-toepassingen terugvinden in programma’s die je elke dag gebruikt. Het zal eenvoudig zijn om op basis van een tekst in Word een PowerPoint-presentatie te ontwikkelen. De evolutie gaat zelfs zo snel dat het soms wat beangstigend overkomt. We mogen ons alleszins verwachten aan een sterke verhoging van onze productiviteit dankzij AI. Ongetwijfeld gaan er bepaalde jobs verloren gaan. Maar over het algemeen zullen medewerkers niet vervangen worden door AI, maar wel door andere medewerkers die AI-tools gebruiken.

Waar ik me wel vragen bij stel, is de eenvoud waarmee AI ingezet kan worden met het oog op fraude. Het is kinderspel om iemands stem te kopiëren en die dingen te laten zeggen die hij of zij nooit verteld heeft. Op die manier creëer je een rode loper voor mensen met slechte bedoelingen. Ik verwacht dus een explosie van het aantal phishing-pogingen. We gaan manieren moeten vinden om daarmee om te gaan.

Hoe zit het met de regelgeving?

Gabriel Mattys: Daar wordt op dit moment naarstig aan gewerkt. De EU verwacht van bedrijven die AI-tools ontwikkelen dat ze maximale transparantie bieden over de manier waarop hun modellen getraind worden. Het zal wellicht tot 2026 duren vooraleer de Europese regelgeving in werking treedt. AI-bedrijven doen er dus goed aan om vandaag al werk te maken van die grote mate van transparantie.

Daarnaast moet duidelijkheid gecreëerd worden over bijvoorbeeld auteursrechten op door AI gegenereerde teksten en afbeeldingen. Er ligt dus nog heel wat werk op de plank voor de wetgevers.

Tips om zelf met AI aan de slag te gaan

Hoe zet je binnen je kantoor de eerste stappen met artificiële intelligentie? Gabriel Mattys geeft je concrete tips:

  • Investeer niet zomaar in grootschalige IT-projecten als je met AI wil starten. Een pragmatische aanpak is de beste. Denk eerst na over je dagelijkse business. Waar steek je veel werkuren in en zou je een en ander graag efficiënter organiseren. Ga in die domeinen op zoek naar AI-tools die je kunnen helpen.
  • Belangrijk is dat je te weten komt wat programma’s zoals ChatGPT allemaal kunnen en niet kunnen. Stel één medewerker aan die zich verder verdiept in de mogelijkheden van AI en zijn of haar kennis deelt met de collega’s.
  • Zie AI-tools als een assistent of stagiair, die je werk verlicht of productiever maakt. Maar je moet altijd nog de kwaliteit controleren van het resultaat van de AI-tools. Hou er rekening mee dat AI-oplossingen soms foute antwoorden geven, net zoals mensen. Meer nog, wanneer je dezelfde vraag vijf keer stelt aan een AI-tool, bestaat de kans dat je niet vijfmaal hetzelfde antwoord krijgt.
  • Hoe werk je best met ChatGPT of andere AI-tools? Je geeft die programma’s een opdracht, en gaat die nadien verder verfijnen aan de hand van vervolgvragen. De manier waarop je de vragen stelt, is vandaag cruciaal. Naarmate deze tools verder ontwikkeld worden en dus nog slimmer worden, zal de vorm van de vraagstelling wellicht minder belangrijk worden.
  • AI is een mindset. Net zoals we vandaag dagelijks Google gebruiken, kan je perfect elke dag tools zoals ChatGPT inzetten.
  • Werk je met ChatGPT, opteer dan voor de betalende versie. Die is een stuk performanter en biedt veel meer mogelijkheden dan de gratis versie.

Deel dit met je kennissen

facebook linkedin