datacarriere.com

Wat fake data doet met onze risicobeoordelingen

Blog
16-12-2025
Michel Ansing
Wat als data net zo misleidend wordt als nepnieuws? Wanneer data vervormd, gemanipuleerd of kunstmatig is, ontstaan verkeerde inschattingen van risico’s, en dus verkeerde besluiten.

Een filmpje gaat viraal. Een politicus zegt iets schokkends, een groep wordt beschuldigd, de reacties lopen uit de hand. De beelden lijken echt, de stemmen herkenbaar — maar later blijkt het een deepfake. Toch is de schade al aangericht: mensen zijn boos, groepen staan tegenover elkaar, en het vertrouwen in de werkelijkheid brokkelt af. 

We leven in een tijd waarin informatie zelf een risico is geworden. Niet omdat ze ontbreekt, maar omdat ze zich vermomt. Wat we zien, lezen en delen vormt onze overtuigingen — ook als het niet waar is. Fake news is geen randverschijnsel meer; het is een systeemrisico: het vervuilt onze perceptie van de werkelijkheid. En wie niet meer weet wat waar is, kan geen goede beslissingen nemen. 

Voor actuarissen en risicomanagers lijkt dat misschien een ver-van-mijn-bed-show. Maar het mechanisme is precies hetzelfde in onze wereld van cijfers, modellen en dashboards. Ook wij varen op data — en ook onze data kan misleidend zijn. Wanneer die data vervormd, gemanipuleerd of kunstmatig is, ontstaan verkeerde inschattingen van risico’s, en dus verkeerde besluiten. 

Fake news ontwricht maatschappijen. Fake data kan hetzelfde doen met markten. 

De illusie van precisie 

Het actuariaat draait om precisie. We berekenen risico’s met cijfers achter de komma, in de veronderstelling dat nauwkeurigheid gelijkstaat aan betrouwbaarheid. Maar dat is een gevaarlijke illusie. Wanneer de input niet klopt, is de uitkomst slechts schijnzekerheid. En net als bij een overtuigende, maar valse video geldt: het probleem is niet dat het anders is, maar dat het zo echt lijkt. Onze modellen kunnen perfect functioneren, de validaties kunnen slagen, de rapportages kunnen er solide uitzien, maar de werkelijkheid waar ze op gebaseerd zijn, kan onjuist zijn. 

Een paar voorbeelden: 

  • Een schademodel dat fraude niet herkent, onderschat structureel de frequentie van claims.
  • Een duurzaamheidsportefeuille met synthetische ESG-data overschat de veerkracht van investeringen. 

Zoals nepnieuws vertrouwen ondermijnt, zo ondermijnt fake data de geloofwaardigheid van onze risicobeoordelingen. 

De nieuwe realiteit van data 

Fake data is niet eendimensionaal. Ze komt in gradaties: 

  • Onjuiste data: menselijke fouten, ontbrekende waarden, verkeerde koppelingen. 
  • Synthetische data: kunstmatig gegenereerde datasets (door AI) die echte data aanvullen of vervangen. 
  • Vertekende data: bias of selectiviteit die de werkelijkheid scheef voorstelt. 

Synthetische data heeft legitieme toepassingen — bijvoorbeeld om privacy te beschermen of zeldzame patronen te simuleren. Maar zodra we niet meer weten wat echt is en wat niet, raken we het onderscheid kwijt tussen meting en model, tussen werkelijkheid en verwachting. Dat is precies wat er maatschappelijk gebeurt met desinformatie: de grens tussen feit en fictie vervaagt, en het publiek verliest vertrouwen in álle informatie. In de financiële wereld dreigt hetzelfde. Als gebruikers niet meer geloven dat cijfers betrouwbaar zijn, brokkelt het fundament van ons stelsel af. 

Vervormde risicoperceptie 

Onze modellen zijn spiegels van de werkelijkheid. Maar als de spiegel vervormd is, krijgen we een verkeerd beeld van risico’s. Wanneer klimaatgegevens bijvoorbeeld “geschoond” worden van extreme uitschieters, lijkt de trend stabieler. Het gevolg: te lage kapitaalbuffers, een overschatte solvabiliteit. Of neem kredietdata die deels synthetisch is. AI vult gaten met plausibele, maar verzonnen correlaties. Het model lijkt robuust — tot het echte leven anders reageert. Net als bij desinformatie op sociale media ontstaat er een echo-effect: de data versterkt de aannames waarop ze zelf is gebaseerd. De wereld lijkt voorspelbaarder dan ze is, en juist dat maakt haar gevaarlijker. 

Fraude en manipulatie 2.0 

Waar vroeger nieuws werd vervalst met drukinkt, gebeurt dat nu met algoritmes. In de datawereld zien we hetzelfde: 

  • Bedrijven poetsen duurzaamheidsrapportages op om gunstiger te scoren. 
  • Gezondheidsdata van wearables wordt bewust gemanipuleerd. 
  • En met AI kunnen zelfs hele datasets worden gefabriceerd die er volkomen authentiek uitzien. 

We betreden een tijdperk waarin data zelf een machtsinstrument is. Wie de data beheerst, beheerst het narratief — of dat nu gaat over verkiezingen, klimaat of solvabiliteit. 

Voor actuarissen betekent dat een nieuw soort risico: het risico dat de cijfers niet langer neutraal zijn, maar strategisch gevormd. We moeten ons dus niet alleen afvragen wat het risico is, maar ook wie het frame bepaalt waarbinnen we dat risico meten.

Garbage in, amplified out 

De oude vuistregel garbage in, garbage out geldt nog steeds — maar AI heeft er iets aan toegevoegd: garbage in, amplified out. AI-modellen leren van data, maar herkennen geen waarheid, alleen patronen. Als de input vertekening bevat, versterkt het model die vertekening. Zo ontstaan datasets die zichzelf bevestigen. Generatieve AI maakt het nog complexer. Ze kan kunstmatige data produceren die intern consistent is, maar volledig losstaat van de werkelijkheid. Een model dat daarop traint, lijkt perfect te presteren — tot het getest wordt tegen de echte wereld. Het doet denken aan desinformatie op sociale media: hoe vaker een onwaarheid wordt herhaald, hoe aannemelijker ze lijkt. Ook in onze risicomodellen dreigt dat gevaar. De data bevestigt het model, het model bevestigt de data — en weinigen zien meer de kloof daartussen. 

Toezicht en verantwoordelijkheid 

  • Toezichthouders en regelgevers beseffen steeds beter hoe cruciaal data-integriteit is geworden. De betrouwbaarheid van rapportages, stresstests en risicomodellen hangt volledig af van één vraag: kunnen we de data vertrouwen? Daarom groeit de nadruk op: 
  • Data lineage – de herleidbaarheid van data tot haar bron; 
  • Data governance – duidelijke verantwoordelijkheden voor datakwaliteit en -beheer; 
  • AI-transparantie – uitlegbaarheid, validatie en controle van algoritmen. 

De actuaris bevindt zich midden in deze keten. Wij zijn de poortwachter tussen data en besluitvorming. Als wij niet kritisch blijven, kan een toezichthouder of bestuurder slechts achteraf reconstrueren wat er misging — zoals journalisten die pas na de feiten kunnen uitleggen hoe een deepfake de publieke opinie wist te beïnvloeden. 

Hoe we ons kunnen wapenen 

Fake data kunnen we niet vermijden, maar wél beheersen. Dat begint bij een houding van twijfel, toetsing en transparantie. 

  • Ken je bronnen – Documenteer waar data vandaan komt en hoe ze is bewerkt. 
  • Toets plausibiliteit – Vraag niet alleen of het model werkt, maar of de uitkomst logisch is. 
  • Modelleer onzekerheid expliciet – Maak scenario’s die rekening houden met datavervorming. 
  • Werk multidisciplinair – Betrek data scientists, auditors én ethici. 
  • Rapporteer eerlijk – Beschrijf beperkingen en aannames even zorgvuldig als de uitkomsten. 

Betrouwbaarheid begint niet bij techniek, maar bij cultuur: een cultuur waarin het normaal is om te zeggen “ik weet het niet zeker”.

De ethische dimensie

De samenleving vertrouwt op cijfers zoals ze vertrouwt op nieuws: ze moeten waarheidsgetrouw zijn. Fake data ondermijnt dat vertrouwen. En daarmee niet alleen de solvabiliteit van bedrijven, maar ook het fundament van het financiële stelsel. Daarom is de rol van de actuaris breder dan berekenen. We zijn bewakers van waarheid in een datagedreven wereld. Dat vraagt niet alleen technische scherpte, maar morele helderheid: de moed om twijfel te benoemen, ook als de getallen geruststellend lijken.

Slotgedachte: risicobeheersing in het tijdperk van wantrouwen 

Fake news verspreidt haat, fake data verspreidt fouten — en beide voeden wantrouwen. Onze uitdaging als actuarissen is om dat vertrouwen te herstellen. Niet door meer data te verzamelen, maar door beter te begrijpen wat die data waard is. We moeten leren onderscheiden tussen zekerheid en schijnzekerheid, tussen signaal en ruis. Want uiteindelijk is het onze taak niet alleen risico’s te berekenen, maar ook de waarheid te beschermen waarop die berekening rust.

Gerelateerde vacatures

Geïnteresseerd in een carrière bij organisaties in ditzelfde vakgebied? Bekijk hieronder de gerelateerde vacatures en vind de perfecte match voor jou!
Triple A - Risk Finance
Marktconform
Medior, Senior
Amsterdam
Als Senior Data & Engineering Consultant bij Triple A - Risk Finance ontwerp je data-architecturen, implementeer je infrastructuren en bouw je data- en machine learning pipelines. Je werkt aan diverse...
BNG
4.462 - 8.259
Medior, Senior
Den Haag
Als Lead Data Modeler bij BNG Bank speel je een cruciale rol in het opzetten en onderhouden van ons enterprise data model. Je werkt nauw samen met domeinteams om datamodellen...
Achmea
4.009 - 5.505
Junior, Medior
Apeldoorn
Als Data Consultant bij Achmea's People Experience Center optimaliseer je medewerkersreizen en ondersteun je tactische en strategische beslissingen. Je analyseert data, visualiseert inzichten en adviseert stakeholders, allemaal binnen een team...
Athora
4.425 - 5.634
Medior
Amsterdam
Als (Senior) Microsoft Azure Data Platform Engineer bij Athora/Zwitserleven bouw je aan een schaalbaar en toekomstbestendig data platform. Je ontwerpt en beheert Azure-omgevingen, ontwikkelt data pipelines met Databricks, en werkt...