Human-in-the-Loop is geen beheersmaatregel – Waarom AI-governance psychologisch faalt

De Wharton School publiceerde recent onderzoek onder 1.372 deelnemers naar de manier waarop mensen redeneren mét AI. De uitkomst is ongemakkelijk: deelnemers accepteerden AI-uitkomsten tot 93% van de tijd. Zelfs wanneer die output aantoonbaar onjuist was.

De onderzoekers noemen dit fenomeen Cognitive Surrender. Oeps!

Dat is geen technisch falen. Geen hallucinerend model. Geen code die ontspoort. Het is een mens die stopt met kritisch denken zodra een systeem een overtuigend antwoord presenteert. En precies daar begint het echte governance-probleem.

De geruststellende mythe van Human-in-the-Loop

Vrijwel elke AI-policy bevat dezelfde geruststellende formulering: “AI-output wordt beoordeeld door een medewerker.” Daarmee is Human-in-the-Loop – HITL – formeel geregeld. Het staat netjes in risk assessments, compliance-memoranda en beleidsdocumenten. Het voelt veilig.

Maar hoe ziet die menselijke review er in de praktijk uit?

Vaak is het een snelle scan, een lichte redactie of simpelweg een akkoordknop. Geen diepgaande toetsing. Geen fundamentele heroverweging. Geen echte tegenkracht.

Dan is HITL geen beheersmaatregel. Dan is het een ritueel.

En rituelen reduceren geen risico’s.

Psychologisch is dit goed verklaarbaar. Wanneer AI als competent wordt ervaren, verschuift ons brein van analyseren naar bevestigen. We gaan niet actief op zoek naar fouten; we controleren om te bevestigen wat we verwachten. Vertrouwen vervangt waakzaamheid. Dat is cognitieve uitbesteding.

Dit gaat niet alleen over GenAI

Dit mechanisme beperkt zich niet tot taalmodellen. Het speelt net zo goed bij AI-pricing tools, forecasting-modellen, fraudedetectiesystemen, ESG-scores en audit-analytics. Zodra een systeem als “geavanceerd” wordt gezien, neemt de natuurlijke menselijke weerstand af.

En juist die weerstand is essentieel voor governance.

Het probleem is dus niet primair dat AI fouten maakt. Het probleem is dat mensen minder geneigd zijn die fouten te zoeken.

De illusie van controle

In veel organisaties wordt Human-in-the-Loop gepresenteerd als sluitstuk van risicobeheersing. In werkelijkheid gebeurt vaak het tegenovergestelde. De reviewer heeft beperkte tijd. Mist soms inhoudelijke diepgang over het model. Wordt afgerekend op snelheid in plaats van correctie. En gaat impliciet uit van de veronderstelling dat “het systeem wel goed zal zitten”.

Daar ontstaat een paradox. De aanwezigheid van menselijke controle verlaagt het waakzaamheidsniveau, omdat het bestaan van die controle geruststelt.

Dat is geen controle. Dat is psychologische demping.

Wat betekent dit voor CFO’s, controllers en auditors?

Voor finance raakt dit de kern van interne beheersing. Wanneer AI wordt ingezet voor managementrapportages, risico-identificatie, contractanalyse, subsidiebeoordeling of continuous monitoring, moet menselijke toetsing inhoudelijk zijn – niet procedureel.

Anders verschuift het risico van model error naar menselijke onderschatting.

Voor auditors is dit nog pregnanter. Als een AI-gegenereerde risicoanalyse als startpunt wordt gebruikt en slechts marginaal wordt aangepast, is dat geen professioneel oordeel. Dat is leunen op een systeem dat overtuigend klinkt.

En leunen is geen assurance.

In een tijd waarin ongoing monitoring steeds vaker de norm wordt, kan ongoing auditing niet verworden tot het valideren van wat een model al heeft bedacht.

Gedrag ontwerpen in plaats van beleid schrijven

Het interessante in het Wharton-onderzoek zit niet alleen in het probleem, maar in de oplossing. Wanneer deelnemers feedback kregen op hun beoordelingsfouten, werden beloond voor het ontdekken van AI-onjuistheden of expliciet werden gestimuleerd om output te verifiëren, daalde het automatische vertrouwen significant.

Kritisch denken verdwijnt dus niet. Het wordt alleen niet meer automatisch geactiveerd.

Dat betekent dat AI-governance geen primair technisch vraagstuk is. Het is een gedragsontwerpvraagstuk. Incentives, feedbackloops en cultuur bepalen of Human-in-the-Loop daadwerkelijk cognitief actief blijft.

Van toezicht naar tegenkracht

Echte governance vraagt om georganiseerde tegenkracht. Om reviewers die expliciet afwijkingen moeten formuleren. Om steekproefsgewijze tegencontroles. Om KPI’s die correcties belonen in plaats van snelheid. Om training die zich richt op foutdetectie in plaats van toolgebruik.

En vooral om cultuur.

In een real-time economie wordt vertraging vaak gezien als inefficiëntie. Maar in AI-besluitvorming kan vertraging juist kwaliteit zijn. Twijfel is geen zwakte; het is risicomanagement in actie.

De fundamentele vraag

De vraag is niet: “Hebben we Human-in-the-Loop?”

De vraag is: “Is die human nog cognitief actief?”

Als review een formaliteit wordt, creëert AI geen efficiencywinst maar een nieuw controlerisico – een risico dat zich vermomt als vooruitgang. Dat is ongemakkelijk, want het betekent dat governance niet opgelost wordt met een paragraaf in een beleidsdocument.

Kritisch denken moet actief ontworpen worden.

Tot slot

AI blijft een structureel onderdeel van besluitvorming in finance, risk en audit. De discussie gaat niet over óf we het gebruiken, maar hoe.

Als Human-in-the-Loop een afvinkcontrole blijft, bouwen we schijnzekerheid. Als we menselijke tegenkracht bewust organiseren, bouwen we volwassen governance.

Cognitive Surrender is geen onvermijdelijk lot.

Het is een ontwerpkeuze.

En precies daar begint echte controle.

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties