Als een AI een dokter speelt: Wat er misgaat met machine learning in de zorg (en wat we daarvan kunnen leren)

Machine learning in de zorg klinkt als een droom. Snellere diagnoses, minder administratielast, betere behandelkeuzes. Maar de werkelijkheid is grilliger. Van algoritmes die systematisch patiënten uitsluiten tot chatbots die racistische medische mythes verspreiden — de risico’s zijn inmiddels net zo zichtbaar als de belofte.

In dit artikel duiken we in concrete (en soms pijnlijke) voorbeelden van mislukte machine learning-projecten in de zorg. Niet om AI af te serveren, maar om ervan te leren.

  1. Het algoritme dat zwarte patiënten als minder zorgbehoevend bestempelde

In een veelbesproken studie uit 2019 bleek dat een commercieel zorgalgoritme in de VS zwarte patiënten consequent lager inschatte in zorgbehoefte dan witte patiënten. De reden? Het model gebruikte historische zorgkosten als proxy voor ‘behoefte’. En historisch gezien werd er minder uitgegeven aan zwarte patiënten — dus leek het algoritme te concluderen: minder zorg nodig.

Lessen:

  • Let op wát je meet. Een proxy zoals kosten is niet neutraal.
  • Bias in de input = bias in de uitkomst.

1. AI die ras herkent op röntgenfoto’s (zonder dat het zou moeten kunnen)

Onderzoek uit 2021 toonde aan dat sommige AI-systemen het ras van een patiënt konden ‘raden’ aan de hand van röntgenbeelden — iets wat zelfs radiologen niet kunnen. Deze verborgen signalen zijn onverklaarbaar en niet wenselijk: ze vormen een risico op onbewuste bias in behandelbeslissingen.

Lessen:

  • AI ziet patronen die mensen niet zien — en dat is niet altijd een voordeel.
  • Ook ongewenste informatie (zoals ras) kan opduiken in medische modellen.

2. AI presteert slechter bij zwarte Amerikanen bij depressiedetectie

In een studie uit 2024 bleek dat AI die depressie moet detecteren op basis van sociale media drie keer slechter presteerde bij zwarte Amerikanen dan bij witte. De oorzaak? De data waarop het model was getraind weerspiegelde vooral witte expressie- en taalpatronen.

Lessen:

  • Een model getraind op eenzijdige data mist nuances bij andere groepen.
  • Representatie in trainingsdata is essentieel voor eerlijke zorg.

3. AI verlaagt nauwkeurigheid van diagnoses als het bevooroordeeld is

Een experiment met 450 zorgprofessionals liet zien dat als een AI-systeem bevooroordeelde suggesties doet, de kans op een correcte diagnose daalt van 73% naar 61%. De AI suggereerde fouten, en mensen namen die over — zelfs als ze zelf twijfelden.

Lessen:

  • AI is niet alleen een assistent, het beïnvloedt onze oordelen.
  • Foutieve aanbevelingen worden snel voor waar aangenomen als ze ‘intelligent’ ogen.

4. AI-chatbots verspreiden racistische medische mythes

In een onderzoek van Stanford uit 2023 gaven grote AI-chatbots zoals ChatGPT en Bard foutieve informatie over vermeende biologische verschillen tussen zwarte en witte mensen — zoals pijngevoeligheid of huiddikte. Deze mythes zijn medisch allang weerlegd, maar zaten nog wel in de trainingsdata.

Lessen:

  • AI ‘weet’ wat het internet weet — en dat bevat ook onzin.
  • Medische AI vraagt om strengere curatie dan generieke taalmodellen.

5. Statistisch slim ≠ medisch logisch

Een treffend voorbeeld uit een ziekenhuismodel: het systeem voorspelde een hogere overlevingskans bij longontsteking voor patiënten met astma. Waarom? Omdat artsen deze groep extra snel opnamen op de IC — wat leidde tot betere zorg. Het model concludeerde: astma = positief. Terwijl het tegendeel waar is.

Lessen:

  • Correlatie is geen causatie.
  • AI-modellen moeten altijd worden gevalideerd in medische context.

Wat kunnen we hiervan leren?

Machine learning in de zorg is niet per definitie slecht — maar het is zelden neutraal. Deze voorbeelden laten zien dat:

  • Bias zit in de data, en dus ook in het model
  • Transparantie en verklaarbaarheid essentieel zijn voor vertrouwen
  • Training op diverse en representatieve datasets noodzakelijk is
  • Menselijke controle en medische kennis onmisbaar blijven

Of zoals WIRED het scherp stelde:

“Artificial intelligence makes bad medicine even worse.”

Tot slot: Eerst genezen, dan trainen

AI in de zorg kan levens verbeteren, maar alleen als we het met zorg inzetten. De technologie is krachtig — en juist daarom moeten we kritisch zijn. Niet omdat we bang zijn voor AI, maar omdat we geloven in betere zorg.

Heb jij zelf een voorbeeld, ervaring of reflectie op AI in de zorg? Deel ’m vooral — want de toekomst van slimme zorg begint met beter leren van wat misging.

De Redactie

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties