Het is opnieuw raak bij de Belastingdienst. Follow the Money bracht recent naar buiten dat meer dan 50 algoritmes van de Belastingdienst volgens de Autoriteit Persoonsgegevens (AP) mogelijk onrechtmatig zijn. Onvoldoende onderbouwd. Discriminerend. Niet transparant. En dat terwijl we na de Toeslagenaffaire collectief hadden beloofd: “nooit meer.”
Maar hier staan we dus weer. In 2025. Met een overheid die zich graag data-gedreven noemt, maar waarvan de datapraktijk inmiddels een dossier op zich is geworden.
Van data-gedreven naar data-gedwaald
De Belastingdienst gebruikt inmiddels honderden algoritmes om burgers en bedrijven te selecteren, analyseren of beoordelen. Denk aan risicomodellen voor BTW-fraude, signaleringssystemen voor toeslagen, of voorspellingsmodellen rondom aangiften. In theorie allemaal bedoeld om efficiënter te werken. In de praktijk vaak gebouwd op slecht gedocumenteerde datasets, onvoldoende geteste variabelen en zonder duidelijke juridische basis.
De AP concludeert dat veel van deze algoritmes zijn ontstaan vanuit “ervaring” in plaats van empirische onderbouwing. “We zagen dat dit werkte,” is in veel gevallen de onderbouwing geweest. Maar onder de AVG en de aankomende Europese AI-verordening (AI Act) is dat volstrekt onvoldoende. Je mag niet ‘zomaar’ profielen maken, risico’s berekenen of mensen classificeren. Niet zonder wettelijke grondslag, transparantie en menselijke toetsing.
Het pijnlijke is dat dit niet het eerste rapport is. De Rekenkamer wees eerder al op het gebrek aan monitoring bij algoritmes binnen de Belastingdienst en Toeslagen. Modellen zouden “ongedocumenteerd verouderen” — een bureaucratische versie van software-rot. En de geschiedenis leert: eenmaal verroeste algoritmes leiden zelden tot rechtvaardigheid.
De illusie van efficiëntie
Waarom is dit zo hardnekkig? Omdat de verleiding van efficiëntie groot is. Een algoritme kan immers in één seconde wat een controleur in een week doet. En dus is de belofte aantrekkelijk: meer doen met minder mensen. Alleen — in de publieke sector heeft efficiëntie een natuurlijke grens. Want waar de menselijkheid uit het proces verdwijnt, verdwijnt ook het rechtsgevoel.
De Belastingdienst zegt zelf dat de algoritmes “slechts hulpmiddelen” zijn, en dat er altijd een menselijke toets plaatsvindt. Maar als die menselijke toets bestaat uit het klikken op “akkoord” na een modelscore van 92%, dan is dat geen toets — dat is bevestiging van een vooroordeel in code.
Het fundamentele probleem is dat algoritmes in bureaucratieën zelden worden gecontroleerd op logica. Ze zijn technisch complex, juridisch vaag en operationeel ingebakken in tientallen processen. Er is dus niemand die het hele plaatje overziet. En dat is precies de reden waarom het misgaat.
We leren te langzaam van fouten
De Toeslagenaffaire was geen incident. Het was een systeemfout. Een overheid die blind vertrouwde op modellen en indicatoren, zonder te begrijpen wat die modellen eigenlijk deden. Tien jaar later blijkt dat diezelfde logica nog steeds de Belastingdienst doordrenkt.
De AP stelt in haar brief aan Financiën dat meer dan 50 algoritmes niet voldoen aan basisprincipes van de AVG. Dat betekent niet automatisch dat elk algoritme “discrimineert”, maar wel dat de juridische en ethische basis ontbreekt. En wie iets niet kan uitleggen, moet zich afvragen of het wel gerechtvaardigd is.
De ironie is dat de overheid inmiddels honderden miljoenen uitgeeft aan “AI-governance”, “data-ethiek” en “transparantie-programma’s”, terwijl de fundamentele les van de Toeslagenaffaire nog steeds niet is geleerd: Je kunt niet data-gedreven zijn zonder menselijkheid, context en verantwoordelijkheid.
De verantwoordelijkheid van de data-professional
Laten we eerlijk zijn: ook binnen bedrijven zien we dezelfde patronen. De CFO die roept dat alles “data-gedreven” moet zijn, zonder te vragen welke data, uit welk systeem, met welke aannames. De data-analist die enthousiast met AI-tools werkt, maar geen idee heeft van de juridische implicaties. De controller die dashboards bouwt zonder te weten welke algoritmes de scores bepalen.
De overheid is een spiegel. En wat we daar zien, is wat in veel organisaties óók speelt — alleen minder zichtbaar. Daarom ligt de verantwoordelijkheid niet alleen bij de Belastingdienst, maar ook bij elke professional die met data werkt.
Concrete calls for action
Om te voorkomen dat we allemaal eindigen met onze eigen “mini-Toeslagenaffaire”, een paar concrete oproepen voor het veld:
Voor controllers en auditors
Vraag bij elk algoritme of dashboard:
– Welke data wordt gebruikt?
– Welke aannames liggen eronder?
– Is er sprake van bias of correlaties zonder causale basis?
– En — cruciaal — wie controleert dit?
Audit niet alleen de uitkomst, maar vooral de logica erachter. Data zonder context is geen bewijs, maar ruis met een mening.
Voor CFO’s en bestuurders
Zorg dat AI governance een structureel onderdeel wordt van jullie risicomanagement. Maak algoritme-transparantie onderdeel van de interne controlecyclus, net zoals cybersecurity of compliance. En stel de simpele vraag: “Kunnen we uitleggen waarom dit model deze uitkomst geeft?” Als het antwoord ‘nee’ is, mag het model niet beslissen.
Voor data-analisten en ontwikkelaars
Documenteer. Altijd. Gebruik datasets die representatief zijn. Test op bias. En stop met het excuus “het model is een black box” — want dat is geen technisch feit, dat is een keuze. Wie iets bouwt, moet het kunnen uitleggen.
Voor burgers en consumenten
Wees niet bang om transparantie te eisen. Iedere burger heeft onder de AVG het recht om te weten of hij of zij geprofileerd wordt door een algoritme. Vraag het. Gebruik dat recht. Want hoe vaker burgers het doen, hoe meer organisaties worden gedwongen hun modellen te verantwoorden.
De data-paradox
De paradox is helder: we willen allemaal data-gedreven werken, maar vergeten dat data nooit neutraal is. Zeker niet als ze over mensen gaat. Elk algoritme bevat keuzes, aannames en prioriteiten. En juist daar ligt de ethiek.
De Belastingdienst is geen uitzondering, maar een symptoom. Een overheid die vertrouwt op modellen die niemand meer begrijpt, verliest vanzelf het vertrouwen van burgers.
En als dat vertrouwen eenmaal weg is, helpen geen PowerPoints over ‘AI governance’ meer. Dan helpt alleen transparantie, erkenning en herbouw van vertrouwen — regel voor regel, algoritme voor algoritme.
Tot slot
De vraag is niet óf we algoritmes moeten gebruiken. De vraag is hoe we ze durven te controleren. Want een algoritme zonder toezicht is niets anders dan een digitale gokautomaat met belastinggeld.
Bij TheDataConnection geloven we dat de toekomst van data-gedreven werken niet ligt in meer modellen, maar in meer verantwoordelijkheid. Wie data gebruikt om te beslissen over mensen, moet bereid zijn om zichzelf te laten controleren.
En dat geldt net zo goed voor de Belastingdienst als voor elk bedrijf, elke gemeente en elke CFO.
Wil je weten hoe je binnen jouw organisatie kunt toetsen of je algoritmes AVG-proof zijn? Bezoek TheDataConnection.nl en sluit je aan bij onze community van data-gedreven professionals die werken aan verantwoord AI-gebruik in finance, overheid en zorg.
Of schrijf je in voor onze volgende roundtable “AI Governance in de Praktijk” — waar auditors, controllers en data-scientists de dialoog aangaan over transparantie, ethiek en verantwoording.
Want datagedreven werken is geen hype, het is een verantwoordelijkheid.