Agentic AI: de nieuwe nachtmerrie van de accountant – Zes assurance-problemen die je niet kunt testen met je traditionele controleaanpak

De hype rond agentic AI is overal. Waar we tot voor kort dachten dat generatieve AI (zoals ChatGPT) de grote doorbraak was, dient zich nu iets veel fundamentelers aan: AI die zelf handelt, redeneert en leert. Geen tool meer die je vraagt om een rapportje, maar een digitale collega die beslissingen neemt, mails verstuurt, prijzen aanpast en zelfs met andere agents onderhandelt.

Klinkt efficiënt? Absoluut. Maar voor auditors en controllers klinkt het ook als een tikkende tijdbom. Want wat gebeurt er met onze assurance als het proces zelf niet meer te volgen is?

1. Waarom agentic AI zo groot wordt gemaakt

Agentic AI wordt verkocht als dé volgende productiviteitsrevolutie. Systemen die autonoom opereren, dynamische keuzes maken en continu leren. Een soort AI-organisme dat zelf zijn route kiest naar de beste uitkomst.

Bedrijven zien kansen:

  • Snellere besluitvorming zonder menselijke tussenkomst.
  • Slimmere optimalisaties op basis van real-time data.
  • Lagere personeelskosten bij repetitieve taken.

Maar precies deze autonomie maakt het systeem ook ongrijpbaar. Waar een mens een beslissing kan uitleggen, blijft de redenering van een agent vaak onzichtbaar — zelfs voor zijn eigen ontwikkelaar.

2. Wat er verandert op bedrijfsprocesniveau

In de klassieke wereld bestaat elk proces uit vaste stappen: een inkooporder, een goedkeuring, een factuur, een betaling. In de agentic wereld bestaat dat pad niet meer.

Een paar voorbeelden:

  • Een procure-to-pay-agent kiest zelf leveranciers op basis van prijs, CO₂-score en levertijd, en sluit contracten af zonder dat iemand de volledige keten ziet.
  • Een order-to-cash-agent bepaalt realtime de juiste verkoopprijs en boekt automatisch omzet.
  • Een record-to-report-agent stelt zelfstandig journaalposten op en reconcilieert verschillen.

Iedere agent leert van de uitkomsten en past zijn gedrag aan. Dat betekent dat het proces van gisteren niet meer hetzelfde is als dat van morgen. En dat ondermijnt de kern van assurance: herhaalbaarheid en controleerbaarheid.

3. De zes nieuwe assurance-problemen

De traditionele audit is gebouwd op stabiliteit: een vast proces, een controletest, een sample. Agentic AI breekt dat fundament open. De zes nieuwe assurance-problemen op een rij:

  1. Geen vaste procesvarianten meer – Agents kiezen dynamische routes. Het gevolg: geen vaste controletests meer mogelijk.
  2. Onzichtbare besluitketens – Redeneringen vinden intern plaats → geen explainability = geen assurance.
  3. Modeldrift – Agents leren continu. Wat gisteren werkte, is morgen anders → assurance vervalt over tijd.
  4. Silent failure – Kleine foutjes stapelen zich onzichtbaar op → grote risico’s zonder signalering.
  5. Data-bias / misalignment – Agents optimaliseren verkeerde KPI’s → onethisch of riskant gedrag.
  6. Accountability gap – Wie is verantwoordelijk als het misgaat? → juridisch én assurance-risico.

4. Wat dit betekent voor de audit van de jaarrekening

De komst van agentic AI dwingt auditors om hun hele gereedschapskist opnieuw te vullen. De klassieke steekproef of procesgerichte controle verliest zijn relevantie zodra processen fluïde worden.

De audit van morgen richt zich op drie nieuwe pijlers:

  • Model-governance: zijn de agenten getraind, getest en geborgd binnen ethische en operationele kaders?
  • Explainability & logging: kan de organisatie reconstrueren waarom een agent iets deed?
  • Continuous assurance: werkt de auditor met real-time monitoring in plaats van jaarlijkse steekproeven?

Met andere woorden: de audit verschuift van “controle van transacties” naar “assurance over gedrag van autonome systemen.”

5. De nieuwe assurance-vraag

De centrale vraag wordt:

Kunnen we vertrouwen op wat een systeem besluit, leert en doet – ook als niemand precies weet hoe het gebeurt?

Dat vraagt om nieuwe rollen in organisaties:

  • AI-assurance officers die gedrag en drift bewaken.
  • Ethical design teams die zorgen voor aligned doelstellingen.
  • Auditors die niet alleen jaarcijfers begrijpen, maar ook de logica van modellen kunnen testen.

6. Conclusie: de accountant moet evolueren

Agentic AI is geen verre toekomst, het is er nú. En met elke autonome agent die bedrijven inzetten, groeit de assurance-kloof tussen wat we denken te controleren en wat er feitelijk gebeurt.

De accountants die het verschil maken in deze nieuwe wereld, zijn degenen die leren denken als een agent – maar handelen als een mens. Want uiteindelijk blijft één waarheid overeind: vertrouwen bouw je niet met algoritmes, maar met inzicht, transparantie en menselijk oordeel.

Meer weten? Volg ons

Werk jij als CFO, controller of auditor aan de inzet van AI in je organisatie?
Vraag je dan niet alleen af wat de agent kan, maar vooral: Wie controleert hem, hoe, en met welke assurance?

TheDataConnection.nl gaat de komende maanden verder de diepte in met praktijkcases rond AI-governance, audit-ready AI-systemen en ISO 42001-implementaties. Volg ons voor meer inzichten — en deel je eigen ervaringen met agentic AI in de boardroom.

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties