Als AI je ziekten voorspelt: zegen of zorg?

Een algoritme dat vandaag voorspelt welke ziektes jij de komende tien jaar krijgt. Het klinkt als sciencefiction, maar dankzij het nieuwe model Delphi-2M schuift dit scenario ineens akelig dichtbij. Onderzoekers trainden een AI op miljoenen medische dossiers en claimen nu dat het risico’s op maar liefst 1.231 ziekten betrouwbaar kan voorspellen. Handig voor preventie, leefstijlinterventies en betere zorg, zo luidt de belofte. Maar wie iets langer doordenkt, ziet ook de schaduwzijden. Want hoe eerlijk, transparant en wenselijk is het als een computer jouw medische toekomst al in potlood schetst?

In dit artikel kijken we door de data-bril naar Delphi-2M en plaatsen we de hype in de context van zorg, data en ethiek.

Het model in een notendop

Volgens berichtgeving van NU.nl is Delphi-2M getraind op een unieke mix van datasets:
– 400.000 deelnemers uit de UK Biobank
– 1,9 miljoen Deense patiëntendossiers

Daarmee voorspelt het algoritme risico’s op 1.231 aandoeningen – variërend van hartziekten tot diabetes en neurologische stoornissen. De voorspellende kracht wordt uitgedrukt in een nauwkeurigheidsscore van 0,7 (waarbij 1.0 perfect zou zijn). Dat is wetenschappelijk interessant: bij veel complexe ziekten is het beter dan bestaande modellen. Maar het is geen glazen bol.

Bias en generaliseerbaarheid: geen one-size-fits-all

Eerste kritische kanttekening: werkt dit model wel buiten de UK en Denemarken? Gezondheidsdata is allesbehalve universeel. Levensstijl, genetische achtergronden, zorgsystemen en zelfs diagnostische gewoontes verschillen per land. Een Nederlander met een andere etnische achtergrond of sociaal profiel kan heel andere risico’s lopen dan waar het model op getraind is.

We hebben dit vaker gezien: AI-modellen die in de VS goed werken, maar elders volledig ontsporen. Denk aan COVID-19 voorspelmodellen die wereldwijd werden uitgerold, maar die bij sommige populaties nauwelijks accuraat bleken. Het risico is dat we schijnzekerheid creëren: een mooie score voor beleidsmakers, maar misleidend in de spreekkamer.

Privacy: medische data is geen bonuskaart

Een tweede zorg is de gevoeligheid van medische data. Hoewel onderzoekers benadrukken dat alles geanonimiseerd is, weten we dat heridentificatie in de praktijk vaak mogelijk blijft – zeker met zulke rijke datasets. Bovendien roept dit vragen op over secundair gebruik: wie mag die data straks inzien? Artsen, onderzoekers, of ook verzekeraars en farmaceuten?

Het ethisch kader in Nederland (AVG, WGBO) is streng, maar de realiteit is dat data zodra ze bestaan, aantrekkelijk worden. En dan is de stap van “zorg verbeteren” naar “premies differentiëren” of “targeted marketing” kleiner dan je denkt.

De psychologie van weten

Stel dat de tool jou een 40% kans op Alzheimer binnen tien jaar voorspelt. Wat doe je met die informatie? Ga je je leefstijl aanpassen? Of leef je tien jaar in angst?

Onderzoek naar genetische testen laat zien dat informatie zonder duidelijke handelingsperspectieven vaak meer stress dan gezondheid oplevert. Als Delphi-2M alleen risico’s geeft, zonder concrete evidence-based adviezen, dan is de kans groot dat patiënten én artsen met lege handen staan.

Transparantie in communicatie wordt cruciaal: hoe leg je een score van 0,7 uit aan iemand zonder statistische achtergrond? En wie draagt de verantwoordelijkheid als een voorspelling niet uitkomt?

Preventie: hoop én valkuil

De positieve kant: vroegsignalering kan levens redden. Als iemand door een hoog risicoprofiel eerder start met bloeddrukcontrole, leefstijlinterventie of preventieve medicatie, dan kan dat zorgkosten en menselijk leed besparen.

Maar de keerzijde is overdiagnose. Als de tool een verhoogd risico voorspelt, zullen artsen sneller screenen, scannen of behandelen. Dat kost geld, geeft bijwerkingen en kan leiden tot medicalisering van gezonde mensen. De balans tussen “weten om te handelen” en “weten om te controleren” is dun.

Juridische en regulatoire hobbels

Een algoritme dat ziektes voorspelt, schuift regelrecht het domein van medische hulpmiddelen in. Dat betekent: toetsing, certificering en aansprakelijkheid. Wie is verantwoordelijk als een voorspelling fout blijkt? De softwareontwikkelaar? Het ziekenhuis dat het model gebruikt? De arts die het interpreteert?

De Europese MDR-regelgeving (Medical Device Regulation) stelt dat AI die diagnoses of risicoprofielen genereert onder streng toezicht moet vallen. In de praktijk lopen innovaties echter vaak sneller dan wetgeving. Het is een klassiek kat-en-muisspel: technologie dendert vooruit, regelgevers rennen erachteraan.

Zorgongelijkheid: wie profiteert?

Nog een ongemakkelijke vraag: wie heeft toegang tot deze technologie? Als zulke tools alleen beschikbaar zijn in academische ziekenhuizen of dure verzekeringspakketten, dan vergroten ze de kloof in de zorg. Mensen met lage gezondheidsvaardigheden of beperkte digitale toegang lopen het risico uitgesloten te raken.

Ironisch genoeg zijn dat vaak juist de groepen met de hoogste gezondheidsrisico’s. Zonder expliciete aandacht voor inclusie werkt Delphi-2M eerder ongelijkheid in de hand dan dat het gezondheidswinst oplevert.

Technische uitdagingen: modeldrift en onderhoud

AI-modellen zijn nooit “af”. Gezondheidspatronen veranderen voortdurend: denk aan nieuwe leefstijltrends, opkomende virussen of veranderende zorgstandaarden. Zonder continue monitoring en hertraining ontstaat modeldrift: voorspellingen worden minder accuraat en kunnen zelfs schadelijk worden.

De vraag is dus: wie gaat het model onderhouden? Hoe vaak wordt het geüpdatet? En wie betaalt daarvoor? Een algoritme lanceren is één ding; het duurzaam beheren binnen een zorgsysteem is een veel complexere uitdaging.

De kritische kern

Delphi-2M laat zien wat er mogelijk is met data en AI in de zorg. Het opent de deur naar een toekomst waarin preventie data-gedreven en gepersonaliseerd is. Maar tegelijk schuurt het aan alle kanten: privacy, interpretatie, ongelijkheid en regulering.

De vraag is niet alleen: kan dit? Maar vooral: moeten we dit willen, en zo ja: hoe?

Conclusie: tussen belofte en praktijk

AI die voorspelt welke ziekten jij in de komende tien jaar krijgt – het is een fascinerende innovatie, maar ook een reality check. In de zorg draait alles om balans: tussen preventie en overdiagnose, tussen datagedreven zekerheid en menselijke maat, tussen technologische belofte en ethische grenzen.

Voor TheDataConnection-lezers – controllers, CFO’s, auditors en zorgprofessionals – ligt hier een duidelijke les: data is nooit neutraal. Het is altijd ingebed in systemen, belangen en waarden. Wie serieus met AI in de zorg aan de slag wil, moet dus verder kijken dan de nauwkeurigheidsscore.

Of, om het met de woorden van de Belgische filosoof Paul Verhaeghe te zeggen: ‘Techniek lost niets op wat fundamenteel een menselijk probleem is.’

Bronnen

  • NU.nl, 18 september 2025. AI-tool kan voorspellen welke ziektes mensen de komende jaren krijgen. https://www.nu.nl/tech/6369472/ai-tool-kan-voorspellen-welke-ziektes-mensen-de-komende-jaren-krijgen.html
  • Wynants, L. et al. (2020). Prediction models for diagnosis and prognosis of covid-19 infection: systematic review and critical appraisal. BMJ, 369:m1328.
  • Rocher, L., Hendrickx, J. M., & de Montjoye, Y.-A. (2019). Estimating the success of re-identifications in incomplete datasets using generative models. Nature Communications, 10, 3069.
  • Green, R. C. et al. (2017). Disclosure of APOE Genotype for Risk of Alzheimer’s Disease. New England Journal of Medicine, 361, 245–254.
Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties