“AI hallucineert niet. Het bluft.” Het klinkt bijna als een one-liner uit een pokerfilm, maar het is de conclusie van een recente studie van OpenAI en het Georgia Institute of Technology (4 september 2025, bron: https://lnkd.in/ecDBPQRb).
Hun analyse laat zien dat grote taalmodellen (LLM’s) niet zomaar fouten maken: ze zijn er op getraind om altijd een antwoord te geven, zelfs als ze het niet weten.
En precies daarin schuilt een fundamenteel risico voor iedereen die met data en AI werkt – van controllers en CFO’s tot artsen, juristen en studenten.
De reden is verrassend banaal. Alle industriestandaarden die AI-modellen evalueren zijn binair: goed of fout.
– Antwoord je correct → punten.
– Antwoord je “ik weet het niet” → nul punten.
– Antwoord je fout, maar toevallig goed gegokt → tóch punten.
Na miljarden trainingsvoorbeelden is de boodschap voor het model helder: nooit zwijgen, altijd antwoorden. Dat lijkt onschuldig – tot je beseft dat zelfs frontier-modellen als GPT-4 en DeepSeek-V3 in experimenten doodleuk drie verschillende geboortedata gaven van een van de onderzoekers. Vol overtuiging, vol bluf.
Die bluf heeft directe consequenties in de echte wereld:
– Gezondheidszorg: een AI die een medicijndosering verkeerd inschat, maar dat wel met honderd procent zekerheid communiceert.
– Finance: een CFO die vertrouwt op een AI voor interpretatie van regelgeving en achteraf een miljoenenboete riskeert.
– Onderwijs: een student die een verzonnen bron citeert, waardoor desinformatie zich verspreidt.
Deloitte onderzocht het recent: 77% van bedrijven ziet hallucinerende AI als directe bedreiging voor hun operatie. Niet alleen als ethisch probleem, maar ook als concreet bedrijfsrisico.
Een veelgehoorde reflex is: “grotere modellen lossen dit vanzelf op.” Maar de realiteit is anders.
– GPT-4-klasse modellen bluffen nog steeds.
– Reinforcement learning zorgt hooguit voor vriendelijkere formuleringen, maar maakt leugens juist overtuigender.
– Retrieval-augmented systemen (zoals bij DeepMind) verlagen fouten, maar vermijden het fundamentele probleem: de afwezigheid van eerlijkheid.
De oplossing is niet méér data of méér parameters, maar een fundamenteel andere beloningsstructuur. Modellen moeten leren dat “ik weet het niet” geen mislukking is, maar een legitiem, waardevol antwoord.
Dat vraagt om drie designprincipes:
1. Beloon kalibratie: hoe beter een model onzekerheid kan inschatten, hoe meer punten.
2. Straffen van overconfidence: wie onzin verkoopt met zekerheid, moet negatief scoren.
3. Maak “ik weet het niet” mainstream: laat eerlijkheid de norm zijn.
Het is opvallend dat nu vooral Anthropic deze weg bewandelt door Claude expliciet te laten zeggen dat hij iets niet weet. De meeste andere spelers – OpenAI, DeepMind, Meta, Mistral, Cohere, DeepSeek – blijven sturen op snelheid, schaal en accuratesse.
De industrie kan dit niet eindeloos voor zich uit schuiven. Regelgevers wereldwijd zetten druk:
– EU AI Act verplicht bedrijven straks om betrouwbaarheid en transparantie hard te maken.
– VS AI Safety Institute ontwikkelt benchmarks die mogelijk in wetgeving belanden.
– China heeft outputfabricatie al expliciet verboden.
Wie nu nog denkt dat “bluf” slechts een kinderziekte is, komt straks van een koude kermis thuis.
Voor de lezers van TheDataConnection – auditors, controllers, data-analisten – is dit geen academische discussie. Het raakt direct de kern van je werk: betrouwbaarheid.
– Voor de auditor: wat doe je als je AI inzet bij jaarrekeningcontroles en het model onzin produceert? Het antwoord “ik weet het niet” is dan waardevoller dan een foutieve analyse die je cliënt op het verkeerde been zet.
– Voor de CFO: governance betekent ook dat je AI-leveranciers de juiste vragen stelt: hoe gaat jullie model om met onzekerheid?
– Voor de data-analist: eerlijk omgaan met confidence scores en probabilistische output wordt een kernvaardigheid.
Kortom: eerlijkheid als nieuwe KPI.
De vraag is dus niet óf AI bluft, maar wie de rekening betaalt. Is dat de patiënt, de belegger, de toezichthouder of de student?
De bedrijven die erin slagen om eerlijkheid als designprincipe te omarmen, zullen het vertrouwen winnen. Niet alleen van regelgevers, maar vooral van hun gebruikers. En daarmee ligt er een enorme businesskans: wie onzekerheid durft te erkennen, kan als eerste AI grootschalig laten landen in zorg, finance en audit.
AI heeft ons geleerd dat bluf loont – zolang de benchmark het beloont. Maar in de echte wereld loont alleen vertrouwen. De eerste modelbouwer die “ik weet het niet” even waardevol maakt als een correct antwoord, heeft de sleutel in handen tot brede adoptie.
Voor iedereen in de boardroom geldt daarom nu één vraag:
Hoe gaat jullie AI-leverancier om met onzekerheid?
Want wie vertrouwt op bluf, betaalt vroeg of laat de rekening.
Bron: OpenAI & Georgia Tech, september 2025 (https://lnkd.in/ecDBPQRb)
#GenAI #ResponsibleAI #AIStrategy #Boardroom #TheDataConnection