Er is iets fascinerends aan de recente pogingen van AI om wiskunde te ‘begrijpen’. DARPA lanceerde dit voorjaar het programma expMath, bedoeld om AI niet alleen rekentrucs te laten uitvoeren, maar om wiskundig inzicht te ontwikkelen. Modellen als AlphaProof en AlphaEvolve lossen inmiddels olympiadewiskunde op waar jij en ik drie espresso’s voor nodig hebben. Maar de echte vraag is: snapt AI wat ze doet?
De korte versie: nee, nog niet. De lange versie: dat maakt het juist interessant.
We zijn gewend geraakt aan AI die praat. Maar nu verschuift het speelveld: LLM’s worden LRMs , Large Reasoning Models. Deze nieuwe generatie combineert taalbegrip met redeneringsmodules, verifiers en zelfs mini-symbolische engines. In de wiskunde betekent dat: geen losse formules meer voorspellen, maar écht bewijspaden proberen op te bouwen.
DARPA ziet AI als co-auteur van de toekomst, niet een machine die je antwoordt wat de stelling van Fermat betekent, maar een die helpt het bewijs te versnellen. Dat klinkt academisch, maar het raakt ook de praktijk: als AI leert redeneren, dan verandert alles. Van financiële modellen tot risico-analyses en procesoptimalisatie.
De meeste mensen denken dat AI slim is omdat ze snel is. In werkelijkheid is ze vaak gewoon goed in brute force: proberen, falen, proberen, falen. In wiskunde loopt dat vast. Sommige bewijzen vragen duizenden denkstappen. Dus hebben onderzoekers iets nieuws bedacht: “supermoves” , combinaties van meerdere logische stappen in één klap.
Het doet denken aan wat wij in de businesswereld proberen: de controller die niet langer elk factuurtje controleert, maar kijkt naar de hele flow van inkoop tot betaling. Slim clusteren van denkstappen dus, precies waar analytical AI sterk in kan worden.
Wat opvalt: AI wordt beter in formele wiskunde, maar niet in intuïtie. Ze kan patronen vinden, fouten vermijden, bestaande bewijsstructuren optimaliseren. Maar de creatieve ‘aha!’-momenten , die waarin een mens een nieuw pad ziet, blijven schaars.
Dat is een herkenbaar patroon. Ook in organisaties zien we AI die helpt optimaliseren, maar zelden ontwerpen. AI schrijft de beleidsnotitie niet, maar helpt je wel sneller zien waar de logica hapert. AI maakt het model niet, maar vindt wel de inconsistenties. Kortom: AI denkt mee, maar denkt niet zelf.
Wiskunde lijkt ver weg, maar dit raakt rechtstreeks aan de kern van wat wij doen in finance en analytics:
– Redeneerbaarheid wordt belangrijker dan rekenkracht. AI die iets ‘weet’ zonder te kunnen uitleggen waarom, verliest waarde.
– Bewijsketens worden cruciaal in assurance: niet de uitkomst telt, maar de herleidbaarheid van elke stap.
– Hybride AI-architecturen (LLM + rule engine + verifier) lijken sterk op wat wij in data-gedreven auditing doen: menselijk inzicht gecombineerd met patroonherkenning en formele logica.
De les? AI in wiskunde laat zien waar onze eigen AI-ambities heen moeten: richting controleerbaar redeneren in plaats van blind vertrouwen.
De mooiste zin uit het artikel vond ik deze: “AI is becoming the explorer — not yet the discoverer.”
En dat vat het goed samen. We hebben een nieuw soort verkenner gecreëerd, die sneller door de denkruimte beweegt dan wij ooit konden. Maar het kompas, de richting, de betekenis — die blijven menselijk.
Wie vandaag AI inzet om wiskunde te laten bedrijven, bouwt in feite een spiegel van zijn eigen redeneervermogen. En precies daarom is dit relevant: AI leert ons beter denken over denken.
Bron: MIT Technology Review – “What’s Next for AI and Math” (juni 2025)
Auteur blog: Pieter de Kok RA, TheDataConnection.nl