“Niemand snapt hoe taalmodellen werken, ook de bedrijven erachter niet.”
Het is de headline van een interview met MIT-hoogleraar Pattie Maes in het Financieele Dagblad (7 oktober 2025).
Ze doelt op de snelgroeiende klasse van AI-systemen – zoals ChatGPT, Gemini en Claude – die miljarden parameters bevatten en zichzelf als het ware ‘leren redeneren’ uit tekst.
En hoewel we wéten hoe deze modellen technisch in elkaar zitten, begrijpt niemand meer precies waarom ze zeggen wat ze zeggen.
Dat klinkt overdreven, maar het is niet onwaar.
Ontwikkelaars van OpenAI, Anthropic en Google begrijpen de architectuur van hun modellen prima – de neurale lagen, de attention-mechanismen, de optimalisatie.
Maar wat ze níét kunnen verklaren, is waarom een model op een bepaald moment kiest voor een specifieke redenering, toon of bias.
Het is alsof je het brein van iemand kunt ontleden, maar niet kunt uitleggen waarom hij vandaag precies dát grapje maakt.
AI-onderzoekers noemen dit het “interpretability gap”: het verschil tussen wat we bouwen en wat we begrijpen.
In de auditwereld herkennen we deze paradox.
We vertrouwen op data-analyses, algoritmes en dashboards – maar willen altijd kunnen herleiden hoe een conclusie tot stand komt.
Transparantie is de basis van vertrouwen.
Stel je voor dat de jaarrekening wordt opgesteld door een model dat miljoenen transacties heeft geanalyseerd, maar niemand kan uitleggen waarom het bepaalde correcties of afwijkingen heeft gevonden.
Geen enkele accountant zou daar een verklaring bij durven afgeven.
Toch is dat precies de richting waarin de AI-wereld zich beweegt: steeds complexere systemen, steeds minder uitlegbaarheid.
De EU AI Act en ISO 42001-norm brengen hier wel kaders voor, maar de praktische uitvoering – het audit trail van beslissingen binnen een taalmodel – blijft grotendeels onzichtbaar.
Pattie Maes raakt dus een kernpunt: we kunnen pas echt verantwoord omgaan met AI als we begrijpen hoe vertrouwen tot stand komt.
En dat vertrouwen begint niet bij het model, maar bij de data-keten eromheen:
– Waar komen de trainingsdata vandaan?
– Welke vooroordelen zitten erin?
– Hoe worden updates gevalideerd?
– En wie is verantwoordelijk als de uitkomst misleidend blijkt?
In feite verschuift de discussie van “hoe slim is het model?” naar “hoe transparant is de dataverbinding erachter?”
Dat is precies de raison d’être van TheDataConnection: inzicht brengen in hoe data stroomt, gecombineerd wordt en betekenis krijgt.
De vergelijking met financiële rapportages is interessant.
Een IFRS-jaarrekening is in de kern ook een taalmodel: een gestructureerde weergave van economische realiteit, vastgelegd in regels, standaarden en interpretaties.
Het verschil? We weten precies hoe IFRS werkt.
Wat Pattie Maes zegt, is eigenlijk: de AI-wereld heeft nog géén IFRS.
Er is nog geen universeel stelsel van regels, definities en toelichtingen waarmee we een AI-model kunnen begrijpen of controleren.
Totdat dat er is, blijft de audit van AI beperkt tot “begrip van de opzet” – niet van de werking.
Voor CFO’s, controllers en auditors betekent dit drie dingen:
Pattie Maes overdrijft een beetje – gelukkig maar.
Er zijn duizenden onderzoekers die wél snappen hoe taalmodellen werken, alleen niet tot in elk neuron.
Maar haar waarschuwing is terecht: de technologie ontwikkelt zich sneller dan ons vermogen om haar te begrijpen.
De echte innovatie zit dus niet in nóg grotere modellen, maar in transparantie-lagen: manieren om te verklaren, te toetsen en te vertrouwen.
Dat is de data-verbinding die er werkelijk toe doet.
Bron: Financieele Dagblad, 7 oktober 2025 – “MIT-hoogleraar Pattie Maes: Niemand snapt hoe taalmodellen werken, ook de bedrijven erachter niet.”
Meer over AI-governance, ISO 42001 en AI Assurance: https://thedataconnection.nl