Als er zelfs bij de kapper wordt gesproken over AI, dan weet je dat je met een grote verandering te maken hebt. Een verandering die je niet kunt negeren, toch?
De belofte van AI is immers enorm. Het gaat al het administratieve werk vervangen, het maakt werk radicaal anders, mensen worden overbodig en AI wordt misschien wel intelligenter dan wij. Tenminste, dat was de belofte. Maar laten we nu eens serieus en kritisch kijken naar de realiteit. En om te snappen waar deze beloftes vandaan komen, moeten we even een paar stappen terugdoen.
Onder de huidige generatie AI-producten, die zo populair werden met ChatGPT, ligt één fundamentele motor. Het large language model, de LLM. Om de AI-hype te begrijpen is het goed om te weten welke ontwikkeling de LLM heeft doorgemaakt.
De eerste grote doorbraak vindt plaats in 2017. Voor 2017 werkten AI-systemen een beetje zoals iemand die heel langzaam leest – woord voor woord, van links naar rechts. Dat was traag en als je een lang verhaal had, vergat het systeem het begin al voordat het bij het einde was.
Google vond toen een nieuwe manier uit: in plaats van woord-voor-woord lezen, kon het systeem naar alle woorden tegelijk kijken en verbanden leggen. Alsof je in één keer een hele pagina kunt scannen en meteen begrijpt waar alles over gaat. Waarom is dit zo belangrijk? De T uit ChatGPT staat voor Transformer.
De revolutie rond de LLM ontstaat echter in 2020. Een team geleid door Jared Kaplan doet bij OpenAI een simpel experiment. Ze maken de LLM groter. Op dat moment gaat het AI-werkveld ervan uit dat grote modellen niet werken. “Als je een AI-systeem te groot maakt, gaat het gewoon de antwoorden uit zijn hoofd leren in plaats van echt begrijpen.”
Maar het team bij OpenAI ontdekt het tegenovergestelde. Een student die meer boeken leest én een groter brein heeft, kent niet alleen meer feiten, maar wordt ook echt slimmer in het begrijpen van nieuwe zaken. En er wordt een direct verband gevonden tussen een groter model én een slimmer model.
En zo wordt GPT-3 gelanceerd, 100 keer groter dan de voorganger, en het werkte precies zoals voorspeld: het is veel slimmer. Dat patroon herhaalt zich bij GPT-4, dat naar schatting 10 tot 20 keer groter wordt gemaakt en wederom veel krachtiger blijkt. Nu staat de AI-wereld op zijn kop. Want als je deze lijn doortrekt, zijn de consequenties niet te overzien.
Slimmere modellen kunnen meegaan werken aan de ontwikkeling van nieuwe AI-generaties, waardoor iedere generatie exponentieel slimmer wordt. Slimmer op slimmer betekent uiteindelijk leren, denken en handelen als een mens. Dit noemen we Artificial General Intelligence (AGI) en dit lijkt niet alleen in zicht, maar ook heel dichtbij. In april van dit jaar voorspelden een aantal CEO’s van dé grote AI-bedrijven zelfs dat dit tussen 2027 en 2030 gaat gebeuren. De impact daarvan zou niet te overzien groot zijn.
Maar… het loopt anders.
GPT-5 krijgt nog grotere datacenters en modellen om de lijn door te zetten, maar… doet dat niet. Tot de grote verbazing van veel gebruikers is er relatief weinig progressie. Waar het verschil tussen GPT 3 en 4 groot was, is het tussen 4 en 5 voelbaar kleiner.
En ChatGPT is niet de enige die tegen een muur aan loopt. Andere bedrijven ondervinden hetzelfde. XAI’s Grok 3 (met 100.000 H100 GPUs), Meta’s “Llama 4 Behemoth”-project – allemaal leveren ze marginale verbeteringen ondanks astronomische investeringen. Waar OpenAI 15x meer processorkracht beschikbaar heeft voor het trainen van GPT-5, is het model soms maar een paar procent beter dan haar voorganger.
De CEO’s zijn hier echter verdacht stil over en richten zich vooral op wat er beter gaat dan in het vorige model. Niet gek, want alleen al in OpenAI is dit jaar weer 40 miljard geïnvesteerd. Maar de gebruikers merken de stagnatie meteen en ook de benchmarks, waarmee AI-modellen getest worden, liegen niet. Het is geen lineaire lijn, het is een curve die aan het afvlakken is. Is de rek uit de LLM?
Nou is het goed om te begrijpen wat zo’n LLM precies doet. Een LLM is niets meer dan een voorspeller: het voorspelt waar de volgende pixel in een plaatje moet staan. Het vertelt wat het volgende woord in een stuk tekst moet zijn.
Daar werden de LLM’s echter zo goed in dat het er menselijk uit begon te zien. Maar in essentie werkt een mensenbrein anders dan een LLM. Ik snap wat een appel is. En als ik dat aan je wil uitleggen, dan heb ik het concept van een appel in mijn hoofd en bedenk zinnen die dat goed gaan uitleggen. Dat is niet hoe een LLM werkt. Een LLM snapt totaal niet wat een appel is. Die voorspelt alleen het volgende woord in de zin en maakt daarmee een prachtige beschrijving.
Maar de AI-wereld hoopte op wat anders. “Deze AI leert gewoon woorden voorspellen, maar als we hem groot genoeg maken en genoeg tekst geven, dan moet er vanzelf iets slimmers uit komen.” Men hoopte op zogenaamde Emergent intelligence. Als je een AI zo goed maakt in het voorspellen van woorden dat het perfecte verhalen, wiskundige oplossingen en computerprogramma’s kan schrijven, dan moet het ergens diep vanbinnen wél echt begrijpen hoe de wereld werkt.
AI werd echter nooit intelligent. Het bleven woorden en pixelvoorspellers. En daarmee werd ChatGPT 5 een kleine iteratieve verbetering en niet de 10x die de AI-wereld hoopte en beloofd had.
Er zijn verschillende redenen waarom de voortgang van LLM’s lijkt te stagneren. Ten eerste raakt de hoeveelheid trainingsdata op. Nieuwe data op het internet wordt steeds vaker met behulp van AI gemaakt en is daarmee niet “schoon” en ongeschikt voor training van AI-modellen. Er is wel wat progressie in het trainen op data die een AI zelf maakt – zogenaamde synthetische trainingsdata – maar dit laat geen grote relevante doorbraken zien.
Daarbij zijn schaalbaarheid, efficiëntie, en foutreductie steeds moeilijker te verbeteren en vragen exponentieel veel rekenkracht. Dat terwijl de marges van verbetering kleiner worden naarmate modellen groter en complexer worden.
De harde werkelijkheid is daarmee simpelweg dat we naar het maximale lijken te zijn gegaan van wat een LLM kan. Er zit nog wel verbetering in, maar het wordt evolutionair, niet revolutionair.
Modellen worden steeds vaker multimodaal en kunnen dus niet alleen tekst, maar ook beelden, audio en video maken. En in plaats van grotere modellen gaan we naar efficiëntere modellen zoals Mixture of Experts (MoE) en state space-modellen, die veel slimmer omgaan met rekenkracht en geheugen. Er komen ook steeds meer verticale modellen, getraind op branches zoals finance, gezondheidszorg of code, en deze leveren betere en betrouwbaardere prestaties.
Omdat de rek eruit lijkt, zie je dat AI-bedrijven zich ook richten op andere zaken, waarbij AI Agents de nieuwe belofte zijn. Agentic systemen kunnen zelfstandig informatie verwerken, beslissingen nemen en acties uitvoeren om een taak succesvol af te ronden. Tenminste, dat is de nieuwe belofte. Maar agents moeten heel foutloos zijn willen ze echt succesvol taken kunnen afronden. Want als één agent 90 procent accuraat is en ik heb 10 agents in een systeem zitten, is de kans dat alle 10 agents samen correct werken maar 35 procent. Dat terwijl juist die betrouwbaarheid van een LLM zo moeilijk te verhogen is. Na veel spelen met AI-agents kan ik je ook vertellen dat ze heel gaaf zijn als ze werken, maar dat de foutmarge inderdaad te hoog is om zonder menselijke controle te kunnen functioneren als systemen complexer worden.
Ik geloof daarmee dat we op dit moment op het hoogtepunt van de AI-hype zitten en dat nieuwe grote stappen in het AI-werkveld drie tot vijf jaar in de toekomst liggen. Maar dat betekent ook dat we heel goed kunnen zien wat de werkelijke mogelijkheden van AI de komende periode zullen zijn, omdat we nu zo goed kunnen zien wat LLM’s wel en wat LLM’s niet kunnen.
LLM’s zijn fenomenaal in het produceren van tekst die natuurlijk klinkt en past in de context. Ze kunnen:
Het bijzondere is dat ze dit kunnen doen zonder template of vaste regels – ze “voelen” aan wat passend is in de gegeven situatie.
LLM’s zijn buitengewoon goed in het spotten van subtiele verbanden die mensen over het hoofd zien:
Dit komt omdat ze getraind zijn op zoveel tekst dat ze patronen kunnen zien die ontstaan uit de collectieve menselijke kennis.
Hier zijn LLM’s echt uniek in. Ze kunnen:
Ze fungeren daarmee als een soort “universele vertaler” tussen verschillende kennisdomeinen, communicatiestijlen en talen.
Dit is misschien wel het meest fascinerende aspect. LLM’s komen regelmatig met inzichten die zelfs hun makers verrassen:
Al bovenstaande zaken zijn super waardevol en kunnen -mits goed ingezet- echt impact hebben op ons werk. Er is echter ook heel veel, wat die LLM niet gaat kunnen.
Dit is de grootste misvatting over LLM’s: ChatGPT “weet” niet wat een appel is. Het heeft geen idee dat appels zwaar zijn, van bomen vallen, of zoet smaken. Het kent alleen tekstpatronen over appels.
Dit gebrek aan wereldbegrip heeft grote praktische gevolgen:
Waarom dit belangrijk is: ChatGPT kan je vertellen hoe je een taart bakt, maar snapt niet dat je de oven moet aanzetten voordat je de taart erin stopt, of dat je je hand verbrandt als je een hete oven aanraakt.
Elke keer dat je een nieuw gesprek begint met ChatGPT, start het vanaf nul. Het kan niet:
Waarom dit belangrijk is: Een menselijke assistent zou na een paar gesprekken jouw voorkeuren leren. Een LLM moet je elke keer opnieuw uitleggen wat je wilt.
Een LLM kan alleen goed omgaan met situaties die lijken op wat het tijdens training heeft gezien. Bij echte nieuwe problemen faalt het omdat:
Waarom dit belangrijk is: Als je vraagt “Wat gebeurt er als ik een rode auto door blauw licht laat rijden?”, kan ChatGPT de concepten “rood”, “auto” en “blauw licht” niet betrouwbaar combineren tot “stoplichten zijn niet blauw”, en “je mag niet door rood licht rijden”.
Een LLM leeft volledig in het “nu” van tekstgeneratie. Elke zin is gebaseerd op de vorige zinnen, niet op een doordacht eindresultaat.
Waarom dit belangrijk is: Vraag je “Maak een plan om een bedrijf op te zetten”, dan krijg je een mooie lijst. Maar die is gebaseerd op wat typische “bedrijf-opstarten” teksten bevatten, niet op echte analyse van jouw situatie, de markt, of haalbare volgende stappen.
Nu je snapt wat een LLM wel en niet kan en vooral gaat kunnen, wordt het interessant: wat betekent dit voor jouw werk en bedrijf? Laten we daar wat realistische voorspellingen over doen.
Waarom ChatGPT zo goed is in het schrijven van standaard zakelijke e-mails, het maken van samenvattingen van rapporten, of het genereren van marketingteksten? Het heeft miljoenen voorbeelden van dit soort teksten gezien tijdens training. Het patroon “schrijf een professionele e-mail om een vergadering te verzetten” heeft het duizenden keren voorbij zien komen.
Maar vraag het om een compleet nieuwe marketingstrategie voor jouw specifieke nichebedrijf in Lutjebroek, en de kwaliteit zakt in elkaar. Dan gaat het namelijk improviseren op basis van algemene marketing-clichés.
Hier wordt het gevaarlijk. LLM’s zijn enorm overtuigend, ook als ze het helemaal fout hebben. Ze kunnen met grote stelligheid beweren dat bepaalde wettelijke regels gelden die helemaal niet bestaan, of financiële adviezen geven die rampzalig zijn.
Voor alles wat echt belangrijk is – juridische documenten, financiële berekeningen, medische adviezen, strategische bedrijfsbeslissingen, en dus ook zaken als computercode – kun je ze niet vertrouwen zonder menselijke controle.
Dit is de sweet spot: gebruik AI als een heel slimme stagiair. Of het nu voor user interface-ontwerp is, programmeren of het schrijven van teksten: AI is een hele snelle junior die met de juiste begeleiding snel geweldige dingen voor elkaar kan krijgen.
Perfect voor eerste versies van documenten, brainstormsessies, researchondersteuning, of het uitwerken van ideeën. Maar altijd met jou als eindverantwoordelijke.
En dit is precies waar de waarde zit. In plaats van een uur te besteden aan het schrijven van een projectvoorstel, laat je de AI in 5 minuten een eerste versie maken die je dan in 15 minuten bijslijpt. Dat is een enorme tijdwinst, zonder dat je de controle verliest.
Helaas -of gelukkig- krijgen we de komende periode geen super AI of AGI, maar er komt wel degelijk interessante ontwikkeling aan.
Denk hierbij niet aan revolutionaire sprongen, maar aan de evolutie van je smartphone. Elke nieuwe iPhone is een beetje beter dan de vorige, maar het blijft fundamenteel hetzelfde apparaat. Zo gaan we ook GPT-6, 7 en 8 zien – elke keer wat beter in tekstgeneratie, wat minder hallucinaties, wat betrouwbaarder. Maar geen magische doorbraak naar echte intelligentie.
Hier zit volgens mij de echte ontwikkeling. Model Context Protocols (MCP’s) maken het mogelijk dat AI-systemen daadwerkelijk kunnen communiceren met andere software, zeker als je het combineert met workflow tools. In plaats van alleen tekst genereren, kunnen ze daarmee ook taken uitvoeren: data ophalen uit je CRM, rapporten maken in Excel, e-mails versturen, agenda’s beheren.
Dit klinkt spectaculair, maar er is een maar: het is nu nog heel technisch. Je hebt nu nog veel technische kennis nodig om deze systemen op te zetten, te configureren en te onderhouden. Gelukkig zie je ook de eerste stappen om dit eenvoudiger te maken. Onder andere Claude heeft al een soort appstore van Connectors, wat een stuk minder technisch is dan de MCP’s. Let wel: menselijke controle blijft ontzettend belangrijk!
Ik verwacht dat we niet één super-AI krijgen, maar honderden gespecialiseerde AI-tools. Denk aan een systeem dat enorm goed is in factuurverwerking voor bouwbedrijven. Een ander dat specifiek ontworpen is voor juridische contractanalyse. Weer een ander voor personeelsplanning in de zorg.
Deze tools zullen de LLM “verstoppen” onder een gebruiksvriendelijke interface. Je hoeft niet te weten dat er een language model onder de motorkap zit – je drukt op een knop en je facturen worden verwerkt. Maar er zit altijd menselijke supervisie bij.
De komende 2-3 jaar blijft automatisering met AI vooral iets voor techneuten en early adopters. Je moet nog steeds begrijpen hoe workflows werken, kunnen beoordelen of AI-output klopt, en problemen kunnen debuggen als het fout gaat.
Maar langzaam komen er meer “no-code” oplossingen. Denk aan hoe website bouwen is geëvolueerd van zelf programmeren naar WordPress. Dat gaat ook met AI-tools gebeuren.
Over een paar jaar zie je waarschijnlijk kant-en-klare AI-workflows voor veelvoorkomende bedrijfstaken. “Download onze factuurverwerking-AI” of “Installeer onze klantservice-assistent”.
Maar net zoals je nu nog steeds moet begrijpen hoe je website werkt om hem goed te gebruiken, moet je dan nog steeds snappen wat die AI-workflow doet. Anders wordt het een black box die soms mysterieus faalt.
“Agentic” AI-systemen – die zelfstandig taken kunnen uitvoeren – zijn nu nog ontzettend fragiel en technisch complex. Ze werken geweldig in demo’s, maar in de echte wereld lopen ze vast bij de eerste uitzondering.
Dit wordt beter, maar verwacht de komende jaren geen systemen die helemaal zelfstandig werken. Er moet altijd iemand in de buurt zijn om in te grijpen als het fout gaat.
Nu we dit weten is het goed om na te denken welke delen van jouw werk wel en niet automatiseerbaar zijn.
Je baan verdwijnt niet, maar verandert wel. Routinetaken worden minder, maar verdwijnen niet volledig. Er komt juist meer vraag naar mensen die kunnen werken met AI-tools – je wordt een soort “AI-manager” die toezicht houdt op geautomatiseerde processen en de uitzonderingen afhandelt.
Je focus verschuift van het uitvoeren van routinetaken naar het bewaken van systemen, het afhandelen van complexere gevallen, en het optimaliseren van processen.
Waarom gaat het allemaal zo veel langzamer dan de hype? Daar zijn een aantal redenen voor.
In plaats van één gigantisch systeem dat alles probeert te doen -de huidige LLM route-, bouwen onderzoekers nu AI-systemen die uit meerdere onderdelen bestaan – een beetje zoals een team van specialisten die samenwerken. De LLM is daar één van de componenten van, niet “het” totale component.
Dit zijn de ChatGPT-achtige systemen die we al kennen. Hun taak wordt nu heel specifieker: ze lezen tekst, begrijpen wat er gevraagd wordt, en vertalen dat naar een vorm die de andere onderdelen kunnen gebruiken. Ze hoeven niet meer alles zelf te doen – ze zijn gewoon de “vertaler” van het team.
Dit is het deel dat mensen handmatig programmeren met regels. Bijvoorbeeld: “Als je een schaakstuk verplaatst, dan kan het niet meer op zijn oude plek staan.” Of: “Als iemand geld uitgeeft, heeft hij minder geld.” Dit zijn logische regels die je vastlegt – niet iets wat de AI zelf hoeft uit te vogelen.
Predictive AI kan verschillende scenario’s doorrekenen. Waar een LLM woorden of pixels voorspelt, analyseert een Predictive AI historische data en statistische patronen. Zie het als een planning- simulatiesysteem in plaats van een tekst generatie systeem. Als we teruggaan naar het schaakvoorbeeld, is dit het systeem dat zegt: “Als ik deze zet doe, wat kan mijn tegenstander dan doen? En wat doe ik dan weer?”. Het werkt daarin in twee stappen:
Stap 1 – Simuleren: “Als ik paard naar f3 zet, dan kan mijn tegenstander loper naar g4 zetten of de dame naar d5 bewegen.”
Stap 2 – Evalueren: Het systeem evalueert elke mogelijke positie: “Na paard-f3 en loper-g4 heb ik een licht voordeel (+0.3), na dame-d5 sta ik slechter (-0.4).”
Het werkt zoals een GPS die verschillende routes berekent om te kijken welke het snelst is. Dergelijke systemen worden al concreet ingezet op dit moment, bijvoorbeeld door Air France KLM, om vliegtuigonderhoud te plannen.
Prescriptive AI gaat verder dan alleen voorspellen – het adviseert wat je daadwerkelijk moet doen op basis van kansberekening. Optimalisatiealgoritmen, beslissingsbomen en bedrijfsregels zijn de basis voor dergelijke AI systemen, iets waar een LLM geen gebruik van maakt.
Prescriptive AI zegt: “Op basis van alle berekeningen is dit je beste actie.” Als we teruggaan naar het schaakbord: “Van alle 20 mogelijke zetten geeft paard naar f3 je de beste kansen omdat het je centrum controleert én je tegenstander dwingt defensief te spelen.” Dit is ook hoe Google’s schaak-AI AlphaZero werkt:
Actiemogelijkheden zorgen ervoor dat een systeem niet alleen nadenkt, maar ook daadwerkelijk iets doet – een schaakzet maken, een e-mail versturen, of een robot laten bewegen. Hier hebben MCP’s waar ik eerder over schreef veel potentie en voor je beeld: toen ik er een aantal maanden geleden mee begon te experimenteren waren er zo’n 3000 MCP’s. Inmiddels zijn er meer dan een miljoen.
In plaats van één monster-AI die triljoenen parameters heeft, kun je vijf kleinere systemen maken die elk hun eigen ding goed doen. Een schaak-systeem dat wint van de beste schakers werkt op een normale laptop – terwijl GPT-4 gigantische datacenters nodig heeft.
Omdat elk onderdeel geoptimaliseerd is voor zijn eigen taak, kunnen ze echt uitblinken. De schaak-AI is niet “een beetje goed in alles” maar is goed in één ding: schaak.
Je hoeft niet elke keer een compleet nieuw systeem te trainen dat alles opnieuw moet leren. Je kunt bestaande onderdelen hergebruiken en alleen nieuwe onderdelen toevoegen voor nieuwe taken. Bovendien zijn ze specialistisch AIs veel goedkoper om te draaien omdat ze kleiner zijn.
Wat AI-bedrijven hebben geprobeerd te doen is het volgende: “Laten we ChatGPT zo groot maken dat het vanzelf kan schaken.”
Wat we inmiddels echter weten is dat dit met de huidige aanpak nooit mogelijk gaat zijn. De nieuwe aanpak is dus anders. “Laten we een schaaksysteem bouwen met ChatGPT als één van de onderdelen van het totale systeem.”
Het is het verschil tussen verwachten dat één persoon dokter, advocaat, ingenieur en kok wordt, versus een team samenstellen waar iedereen zijn eigen expertise heeft.
Deze nieuwe aanpak is minder spectaculair dan de belofte van één super-AI, maar waarschijnlijk veel praktischer en betrouwbaarder. Dat betekent ook dat de hype eraf kan en dat er wel degelijk waarde gevonden gaat worden in AI-systemen. Dus AI-verandering komt echt en als je ook maar iets doet met kenniswerk of administratieve arbeid dan.
De AI-revolutie die begon met ChatGPT leert ons een belangrijke lessen die we eigenlijk bij iedere tech-hype weer opnieuw lijken te moeten leren: temper je verwachtingen, geloof niet blindelings in beloftes en experimenteer zelf om te zien wat nieuwe technologie werkelijk kan. Het antwoord op hype is simpel: focus je op tastbare resultaten die je bedrijfs- en klantwaarde opleveren.
En het feit dat we op het hoogtepunt van de AI-hype zitten, betekent niet dat AI waardeloos is – integendeel.
De harde realiteit is dat LLM’s geen echte intelligentie hebben ontwikkeld. Ze blijven geavanceerde voorspellers die geen appel kunnen proeven of begrijpen waarom die van een boom valt. Maar binnen die beperkingen zijn ze buitengewoon waardevol: ze zijn fenomenale tekstgeneratoren, patroonherkenners en veelzijdige assistenten die ons werk kunnen versnellen en verbeteren.
De toekomst van AI ligt niet in één alwetende superintelligentie, maar in slimmere samenwerking. Gespecialiseerde AI-systemen die elk hun eigen expertise hebben, gecombineerd met praktische tools zoals MCP’s die AI daadwerkelijk dingen laten doen in plaats van alleen maar tekst produceren. Dit is minder spectaculair dan de belofte van AGI, maar heel nuttig in ons dagelijks werk.
Voor jouw werk betekent dit een pragmatische kans: gebruik AI als een zeer capabele junior collega onder jouw supervisie. Laat het de eerste versies maken, patronen zoeken en routinetaken versnellen, maar behoud zelf de controle over belangrijke beslissingen en complexe situaties. Dat is geen teleurstelling – dat is precies de manier waarop technologie altijd het beste heeft gewerkt: als een verlengstuk van menselijke intelligentie, niet als vervanging ervan.
De AI-revolutie is dus niet voorbij, maar wel volwassen aan het worden. En dat is eigenlijk veel interessanter dan de hype.

Dit artikel is eerder geplaatst op voys.nl.