Iedereen praat over AI-governance. Maar wie controleert de algoritmes?

Wie de afgelopen twee jaar een boardroom, CFO-overleg of technologieconferentie heeft bezocht, krijgt de indruk dat kunstmatige intelligentie inmiddels volledig onder controle is. Overal verschijnen termen als AI governance, ethical AI, model risk management en responsible AI. Beleidsdocumenten groeien, frameworks worden ontworpen en compliance-presentaties vullen PowerPoints van Amsterdam tot Brussel.

Maar wie één simpele vraag stelt, krijgt vaak een verrassend stil antwoord.

 

Wie controleert eigenlijk het algoritme? Dat is de ongemakkelijke vraag die langzaam boven de markt hangt.

Niet omdat organisaties niets doen met AI. Integendeel. AI verschuift momenteel in rap tempo van experiment naar productie. Waar in 2023 en 2024 nog vooral werd geëxperimenteerd met chatbots en proof-of-concepts, zien we in 2026 steeds meer algoritmes die daadwerkelijk bedrijfsprocessen beïnvloeden: prijsmodellen, kredietbeslissingen, medische triage, fraudedetectie, supply chain optimalisatie en recruitmentfilters.

AI zit dus steeds vaker in de motor van de organisatie. Maar de onafhankelijke controle daarop? Die is er vaak nog niet.

De paradox van 2026

Dat is opmerkelijk, zeker omdat dit juist het jaar is waarin de Europese AI-regelgeving volledig van kracht wordt: de EU AI Act.

In theorie betekent dat dat organisaties hun AI-systemen moeten kunnen uitleggen, documenteren en beheersen. Systemen moeten worden geclassificeerd naar risico, datasets moeten traceerbaar zijn en menselijke controle moet aantoonbaar blijven.

Het klinkt bijna als een auditframework. En toch blijft de vraag naar AI-assurance vooralsnog opvallend bescheiden.

De reden is eigenlijk vrij logisch.

De AI Act beschrijft wat organisaties moeten regelen, maar veel bedrijven weten nog niet precies hoe zij dat moeten aantonen. De geharmoniseerde technische standaarden die dat concreet maken worden pas later in 2026 verwacht. Tot die tijd ontstaat een soort tijdelijke bestuurlijke tussenfase.

De technologie ontwikkelt zich snel.

De governance probeert bij te blijven.

En assurance volgt — zoals zo vaak — net iets later.

AI groeit sneller dan controle

Daar komt nog iets fundamentelers bij.

Veel organisaties ontdekken momenteel dat een AI-model slechts zo goed is als de data erachter. En dat blijkt in de praktijk vaak het grootste probleem.

Datasets zijn incompleet. Historische data bevat bias. Governance rond datastromen is versnipperd. Documentatie ontbreekt of is nooit formeel vastgelegd. Met andere woorden: de basis voor betrouwbare AI is nog volop in ontwikkeling.

Voor veel organisaties voelt een AI-audit daarom nog een stap verder op de maturiteitsladder. Eerst moet de datahuishouding op orde komen. Daarna volgt governance. En pas daarna ontstaat de behoefte aan onafhankelijke assurance.

Dit patroon is overigens niet nieuw. We zagen precies hetzelfde bij cybersecurity, cloud-compliance en ESG-rapportages.

Eerst komt de technologie.

Daarna komt de regelgeving.

En vervolgens komt de audit.

Waar de vraag wél ontstaat

Toch is de vraag naar AI-assurance niet volledig afwezig. Ze ontstaat vooral daar waar de risico’s tastbaar worden.

In fintech bijvoorbeeld, waar algoritmes kredietbeslissingen nemen. In de zorg, waar AI wordt ingezet bij triage of medische beeldanalyse. En in de publieke sector, waar algoritmes soms directe impact hebben op burgers.

Daar speelt niet alleen compliance, maar ook reputatie.

Bestuurders realiseren zich dat een fout algoritme niet alleen een technische fout is. Het kan leiden tot discriminatie, reputatieschade of juridische claims.

En op dat moment verschijnt vanzelf de vraag die iedere bestuurder uiteindelijk stelt:

Wie kijkt hier onafhankelijk naar?

De komende auditmarkt

Waarschijnlijk bevinden we ons nu simpelweg in de stille fase vóór een nieuwe assurance-markt.

Zodra drie ontwikkelingen samenkomen, zal de vraag naar AI-assurance vrijwel zeker versnellen.

Ten eerste zullen de Europese standaarden voor de AI Act concreter worden. Ten tweede zullen toezichthouders actiever gaan handhaven. En ten derde — en dat is vaak de echte katalysator — zullen de eerste incidenten onvermijdelijk plaatsvinden.

Op dat moment verandert AI-governance van een beleidsdocument in een bestuurlijke verantwoordelijkheid.

En dan wordt de vraag ineens veel praktischer:

Hoe weten we dat onze algoritmes betrouwbaar zijn?

Van IT-vraag naar bestuursvraag

Wat in deze discussie vaak over het hoofd wordt gezien, is dat AI-assurance uiteindelijk geen puur IT-vraagstuk is.

Het raakt aan strategie, risicomanagement, governance en verantwoording. Net zoals financiële verslaggeving ooit uitgroeide van een boekhoudkundige exercitie tot een onderwerp voor bestuur en raad van commissarissen.

De komende jaren zullen organisaties daarom steeds vaker willen begrijpen:

  • hoe algoritmes beslissingen nemen
  • welke data die beslissingen voedt
  • welke risico’s daarin verborgen zitten
  • en hoe onafhankelijk toezicht daarop kan worden ingericht.

Daarmee verschuift AI langzaam van technologie naar bestuurlijke infrastructuur.

De volgende stap: assurance

En precies op dat moment ontstaat de volgende logische stap: onafhankelijke assurance.

Niet om innovatie te vertragen, maar om vertrouwen te creëren.

Organisaties die AI strategisch inzetten, willen immers niet alleen snelheid — ze willen ook zekerheid. Zekerheid dat hun algoritmes uitlegbaar zijn, dat datasets beheerst worden gebruikt en dat governance daadwerkelijk werkt.

In de praktijk zien we daarom dat steeds meer organisaties zich voorbereiden op deze fase. Niet omdat de regelgeving het vandaag al afdwingt, maar omdat bestuurders begrijpen dat het vroeg of laat nodig wordt.

Voor organisaties die hun AI-systemen nu al kritisch willen laten toetsen, ontstaan er inmiddels ook gespecialiseerde assurance-initiatieven. Zo werkt bijvoorbeeld Coney Minds met multidisciplinaire teams van accountants, data-analisten en AI-specialisten aan onafhankelijke beoordelingen van AI-toepassingen.

Niet als theoretisch compliance-project, maar als praktische stap naar transparante en betrouwbare algoritmes.

De stilte vóór de storm

De huidige markt voor AI-assurance is dus nog klein. Maar dat betekent niet dat zij onbelangrijk is.

Integendeel. Het betekent waarschijnlijk dat we ons bevinden in een typisch overgangsmoment: de fase waarin technologie sneller groeit dan de structuren die haar moeten controleren.

De vraag is daarom niet óf AI-assurance een rol gaat spelen. De echte vraag is vooral:

Wie als eerste wil weten of zijn algoritmes echt te vertrouwen zijn.

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties