De hype rond agentic AI is overal. Waar we tot voor kort dachten dat generatieve AI (zoals ChatGPT) de grote doorbraak was, dient zich nu iets veel fundamentelers aan: AI die zelf handelt, redeneert en leert. Geen tool meer die je vraagt om een rapportje, maar een digitale collega die beslissingen neemt, mails verstuurt, prijzen aanpast en zelfs met andere agents onderhandelt.
Klinkt efficiënt? Absoluut. Maar voor auditors en controllers klinkt het ook als een tikkende tijdbom. Want wat gebeurt er met onze assurance als het proces zelf niet meer te volgen is?
Agentic AI wordt verkocht als dé volgende productiviteitsrevolutie. Systemen die autonoom opereren, dynamische keuzes maken en continu leren. Een soort AI-organisme dat zelf zijn route kiest naar de beste uitkomst.
Bedrijven zien kansen:
Maar precies deze autonomie maakt het systeem ook ongrijpbaar. Waar een mens een beslissing kan uitleggen, blijft de redenering van een agent vaak onzichtbaar — zelfs voor zijn eigen ontwikkelaar.
In de klassieke wereld bestaat elk proces uit vaste stappen: een inkooporder, een goedkeuring, een factuur, een betaling. In de agentic wereld bestaat dat pad niet meer.
Een paar voorbeelden:
Iedere agent leert van de uitkomsten en past zijn gedrag aan. Dat betekent dat het proces van gisteren niet meer hetzelfde is als dat van morgen. En dat ondermijnt de kern van assurance: herhaalbaarheid en controleerbaarheid.
De traditionele audit is gebouwd op stabiliteit: een vast proces, een controletest, een sample. Agentic AI breekt dat fundament open. De zes nieuwe assurance-problemen op een rij:
De komst van agentic AI dwingt auditors om hun hele gereedschapskist opnieuw te vullen. De klassieke steekproef of procesgerichte controle verliest zijn relevantie zodra processen fluïde worden.
De audit van morgen richt zich op drie nieuwe pijlers:
Met andere woorden: de audit verschuift van “controle van transacties” naar “assurance over gedrag van autonome systemen.”
De centrale vraag wordt:
Kunnen we vertrouwen op wat een systeem besluit, leert en doet – ook als niemand precies weet hoe het gebeurt?
Dat vraagt om nieuwe rollen in organisaties:
Agentic AI is geen verre toekomst, het is er nú. En met elke autonome agent die bedrijven inzetten, groeit de assurance-kloof tussen wat we denken te controleren en wat er feitelijk gebeurt.
De accountants die het verschil maken in deze nieuwe wereld, zijn degenen die leren denken als een agent – maar handelen als een mens. Want uiteindelijk blijft één waarheid overeind: vertrouwen bouw je niet met algoritmes, maar met inzicht, transparantie en menselijk oordeel.
Werk jij als CFO, controller of auditor aan de inzet van AI in je organisatie?
Vraag je dan niet alleen af wat de agent kan, maar vooral: Wie controleert hem, hoe, en met welke assurance?
TheDataConnection.nl gaat de komende maanden verder de diepte in met praktijkcases rond AI-governance, audit-ready AI-systemen en ISO 42001-implementaties. Volg ons voor meer inzichten — en deel je eigen ervaringen met agentic AI in de boardroom.