Het waren een paar ongemakkelijke dagen in medialand. Een ervaren journalist, iemand die zijn vak verstaat, bleek citaten te hebben gebruikt die nooit zijn uitgesproken. Niet verzonnen in de klassieke zin van het woord, maar gegenereerd. Door AI.
De eerste reflex is voorspelbaar: dit is een incident. Iemand die te ver is gegaan. Iemand die zijn controle heeft laten varen. Een menselijke fout, in een verder gezond systeem.
Maar wie iets langer kijkt, ziet iets anders. Dit is geen incident. Dit is een voorproefje. We worden lui en dom.
Want wat hier gebeurt, is niet exclusief voor de journalistiek. Dit is exact het soort mechanisme dat zich net zo makkelijk afspeelt in de wereld van accountants, controllers en CFO’s. Alleen hebben we dat nog niet hardop tegen elkaar gezegd!
De verleiding van moeiteloze kwaliteit
Generatieve AI is verleidelijk op een manier die eerdere technologie nooit was. Het geeft geen ruwe data, geen half afgemaakte analyses, geen technische output waar nog werk in zit. Het geeft iets dat af voelt. Altijd een antwoord.
Zinnen lopen soepel na aanpassingen van de prompt. Argumentaties kloppen ogenschijnlijk. Conclusies sluiten netjes aan op de vraag die je stelde. Het is precies het soort output waar je normaal gesproken tijd, ervaring en concentratie voor nodig hebt. Het is net echt.
En juist daardoor gebeurt er iets subtiels.
Waar we vroeger nog gedwongen waren om te denken, te structureren en te controleren, schuiven we nu steeds makkelijker op richting accepteren. Niet bewust, gewoon lui in de klassieke zin, een bijzondere vorm van cognitieve gemakzucht. Het voelt goed, dus het zal wel goed zijn.
Totdat het dat niet blijkt te zijn. Ik heken het inmiddels. De posts op Linkedin, de reacties op mijn artikels op Accountant.nl. Het klopt allemaal net te goed.
Van hulpmiddel naar vervanger
In vrijwel elke organisatie begint het gebruik van GenAI onschuldig. Even sparren. Even een eerste opzet. Even een tekst laten herschrijven.
Maar ergens onderweg verschuift de rol van het hulpmiddel. Zonder dat er een expliciet besluit wordt genomen, verandert het van assistent naar producent. En daarmee verandert ook onze houding.
We controleren minder diep. We stellen minder vragen. We accepteren sneller.
Niet omdat we het vak niet meer begrijpen, maar omdat de output precies aansluit op wat we verwachten te zien. En dat is misschien wel de grootste kracht en tegelijk het grootste risico van deze technologie.AI genereert geen waarheid. Het genereert waarschijnlijkheid in een vorm die verdacht veel lijkt op zekerheid.
De accountant en de CFO zijn niet anders
Het is comfortabel om te denken dat dit een journalistiek probleem is. Een incident in een andere sector. Maar dat is een misvatting.
De accountant die een memo laat opstellen met behulp van AI, begeeft zich op precies hetzelfde speelveld. De CFO die een analyse laat genereren voor een board meeting ook. Van Ai naar Dashboard, op elk moment een andere visual, een ander verhaal, maar niemand die het lijkt te boeien.
Zolang het gaat om structuur, taal en richting, gaat het goed. Maar zodra de output wordt gezien als feitelijke onderbouwing in plaats van als startpunt voor denken, ontstaat er frictie.
Want waar komt het vandaan?
Welke aannames zitten erin?
Wat is gecontroleerd en wat slechts aannemelijk gemaakt?
Dat zijn vragen die in een klassiek proces vanzelf naar boven komen. Maar in een GenAI-gedreven proces verdwijnen ze makkelijker naar de achtergrond.
De paradox van ervaring en #genAI houdt van het woord Paradox (ik lees het nu overal)
Misschien nog wel het meest ongemakkelijke inzicht is dat juist ervaren professionals hier kwetsbaar zijn.
Niet omdat ze minder kritisch zijn, maar omdat ze sneller herkennen wat klopt. Of beter gezegd: wat lijkt te kloppen. Jarenlange ervaring maakt dat je patronen herkent, dat je intuïtief aanvoelt wanneer iets “goed” is.
En precies daar sluit GenAI naadloos op aan. Het produceert output die die patronen perfect imiteert.
Daardoor wordt de klassieke reflex van doorvragen, herleiden, reconstrueren minder vaak geactiveerd. Niet omdat het niet kan, maar omdat het niet nodig lijkt.
Totdat het wel nodig blijkt te zijn en dan ben je de Sjaak.
Van controle naar comfort
In de kern raakt dit aan een verschuiving die we nog onvoldoende onder ogen zien.
We bewegen van een wereld waarin controle centraal staat, naar een wereld waarin comfort steeds vaker de plaats inneemt van controle. Niet expliciet, niet als beleid, maar als gevolg van hoe technologie ons werk beïnvloedt.
In audit-termen betekent dit dat controle-informatie wordt vervangen door plausibiliteit. Dat herleidbaarheid plaatsmaakt voor aannemelijkheid. Dat het gevoel dat iets klopt, zwaarder gaat wegen dan het bewijs dat het klopt.
En dat is een fundamentele verandering. Daar zal de AFM niet blij mee zijn, die gaat hier straks volle bak op toezien, glimmende AI-dossiers vol mooie teksten.
Human Intelligence als correctiemechanisme
Het antwoord ligt niet in meer technologie. Die is er al in overvloed. En eerlijk is eerlijk: de kwaliteit van wat GenAI produceert, zal alleen maar beter worden.
Maar daarmee verdwijnt het probleem niet. Het verschuift.
De echte uitdaging zit in hoe wij ons verhouden tot die output. In de discipline om te blijven controleren. In het vakmanschap om door te vragen. In het ongemak om iets dat goed voelt, toch opnieuw tegen het licht te houden. Ik weet het, dat is lastig en het vraagt veel energie.
Human Intelligence wordt daarmee geen nice-to-have, maar het laatste correctiemechanisme in een systeem dat steeds overtuigender wordt.
Maar goed…
De journalist maakte een fout. Maar het interessante is niet de fout zelf. Het interessante is hoe herkenbaar het mechanisme daarachter is. Want uiteindelijk gaat dit niet over media. Of over technologie. Of over AI.
Het gaat over iets veel fundamentelers:
Hoe snel we geneigd zijn om te vertrouwen op iets dat er goed uitziet.
En misschien is dat wel de echte les van dit moment:
Niet dat AI fouten maakt. Maar dat het ons helpt om fouten te accepteren zonder dat we ze nog als fouten herkennen.