AI is zwáár overhyped en dit is waarom

Als er zelfs bij de kapper wordt gesproken over AI, dan weet je dat je met een grote verandering te maken hebt. Een verandering die je niet kunt negeren, toch?

De belofte van AI is immers enorm. Het gaat al het administratieve werk vervangen, het maakt werk radicaal anders, mensen worden overbodig en AI wordt misschien wel intelligenter dan wij. Tenminste, dat was de belofte. Maar laten we nu eens serieus en kritisch kijken naar de realiteit. En om te snappen waar deze beloftes vandaan komen, moeten we even een paar stappen terugdoen.

Waarom ChatGPT de AI-revolutie startte: van transformers naar LLM’s

Onder de huidige generatie AI-producten, die zo populair werden met ChatGPT, ligt één fundamentele motor. Het large language model, de LLM. Om de AI-hype te begrijpen is het goed om te weten welke ontwikkeling de LLM heeft doorgemaakt.

Transformers: hoe AI leerde hele pagina’s te begrijpen

De eerste grote doorbraak vindt plaats in 2017. Voor 2017 werkten AI-systemen een beetje zoals iemand die heel langzaam leest – woord voor woord, van links naar rechts. Dat was traag en als je een lang verhaal had, vergat het systeem het begin al voordat het bij het einde was.

Google vond toen een nieuwe manier uit: in plaats van woord-voor-woord lezen, kon het systeem naar alle woorden tegelijk kijken en verbanden leggen. Alsof je in één keer een hele pagina kunt scannen en meteen begrijpt waar alles over gaat. Waarom is dit zo belangrijk? De T uit ChatGPT staat voor Transformer.

Large Language Models: waarom groter slimmer betekende

De revolutie rond de LLM ontstaat echter in 2020. Een team geleid door Jared Kaplan doet bij OpenAI een simpel experiment. Ze maken de LLM groter. Op dat moment gaat het AI-werkveld ervan uit dat grote modellen niet werken. “Als je een AI-systeem te groot maakt, gaat het gewoon de antwoorden uit zijn hoofd leren in plaats van echt begrijpen.”

Maar het team bij OpenAI ontdekt het tegenovergestelde. Een student die meer boeken leest én een groter brein heeft, kent niet alleen meer feiten, maar wordt ook echt slimmer in het begrijpen van nieuwe zaken. En er wordt een direct verband gevonden tussen een groter model én een slimmer model.

En zo wordt GPT-3 gelanceerd, 100 keer groter dan de voorganger, en het werkte precies zoals voorspeld: het is veel slimmer. Dat patroon herhaalt zich bij GPT-4, dat naar schatting 10 tot 20 keer groter wordt gemaakt en wederom veel krachtiger blijkt. Nu staat de AI-wereld op zijn kop. Want als je deze lijn doortrekt, zijn de consequenties niet te overzien.

Slimmere modellen kunnen meegaan werken aan de ontwikkeling van nieuwe AI-generaties, waardoor iedere generatie exponentieel slimmer wordt. Slimmer op slimmer betekent uiteindelijk leren, denken en handelen als een mens. Dit noemen we Artificial General Intelligence (AGI) en dit lijkt niet alleen in zicht, maar ook heel dichtbij. In april van dit jaar voorspelden een aantal CEO’s van dé grote AI-bedrijven zelfs dat dit tussen 2027 en 2030 gaat gebeuren. De impact daarvan zou niet te overzien groot zijn.

Maar… het loopt anders.

Ongekende rekenkracht voor nog slimmere modellen

GPT-5 krijgt nog grotere datacenters en modellen om de lijn door te zetten, maar… doet dat niet. Tot de grote verbazing van veel gebruikers is er relatief weinig progressie. Waar het verschil tussen GPT 3 en 4 groot was, is het tussen 4 en 5 voelbaar kleiner.

En ChatGPT is niet de enige die tegen een muur aan loopt. Andere bedrijven ondervinden hetzelfde. XAI’s Grok 3 (met 100.000 H100 GPUs), Meta’s “Llama 4 Behemoth”-project – allemaal leveren ze marginale verbeteringen ondanks astronomische investeringen. Waar OpenAI 15x meer processorkracht beschikbaar heeft voor het trainen van GPT-5, is het model soms maar een paar procent beter dan haar voorganger.

De CEO’s zijn hier echter verdacht stil over en richten zich vooral op wat er beter gaat dan in het vorige model. Niet gek, want alleen al in OpenAI is dit jaar weer 40 miljard geïnvesteerd. Maar de gebruikers merken de stagnatie meteen en ook de benchmarks, waarmee AI-modellen getest worden, liegen niet. Het is geen lineaire lijn, het is een curve die aan het afvlakken is. Is de rek uit de LLM?

Emergent intelligence: de stille hoop van AI-onderzoekers

Nou is het goed om te begrijpen wat zo’n LLM precies doet. Een LLM is niets meer dan een voorspeller: het voorspelt waar de volgende pixel in een plaatje moet staan. Het vertelt wat het volgende woord in een stuk tekst moet zijn.

Daar werden de LLM’s echter zo goed in dat het er menselijk uit begon te zien. Maar in essentie werkt een mensenbrein anders dan een LLM. Ik snap wat een appel is. En als ik dat aan je wil uitleggen, dan heb ik het concept van een appel in mijn hoofd en bedenk zinnen die dat goed gaan uitleggen. Dat is niet hoe een LLM werkt. Een LLM snapt totaal niet wat een appel is. Die voorspelt alleen het volgende woord in de zin en maakt daarmee een prachtige beschrijving.

Maar de AI-wereld hoopte op wat anders. “Deze AI leert gewoon woorden voorspellen, maar als we hem groot genoeg maken en genoeg tekst geven, dan moet er vanzelf iets slimmers uit komen.” Men hoopte op zogenaamde Emergent intelligence. Als je een AI zo goed maakt in het voorspellen van woorden dat het perfecte verhalen, wiskundige oplossingen en computerprogramma’s kan schrijven, dan moet het ergens diep vanbinnen wél echt begrijpen hoe de wereld werkt.

AI werd echter nooit intelligent. Het bleven woorden en pixelvoorspellers. En daarmee werd ChatGPT 5 een kleine iteratieve verbetering en niet de 10x die de AI-wereld hoopte en beloofd had.

Peak AI hype: waarom de AI-revolutie stagneert

Er zijn verschillende redenen waarom de voortgang van LLM’s lijkt te stagneren. Ten eerste raakt de hoeveelheid trainingsdata op. Nieuwe data op het internet wordt steeds vaker met behulp van AI gemaakt en is daarmee niet “schoon” en ongeschikt voor training van AI-modellen. Er is wel wat progressie in het trainen op data die een AI zelf maakt – zogenaamde synthetische trainingsdata – maar dit laat geen grote relevante doorbraken zien.

Daarbij zijn schaalbaarheid, efficiëntie, en foutreductie steeds moeilijker te verbeteren en vragen exponentieel veel rekenkracht. Dat terwijl de marges van verbetering kleiner worden naarmate modellen groter en complexer worden.

De harde werkelijkheid is daarmee simpelweg dat we naar het maximale lijken te zijn gegaan van wat een LLM kan. Er zit nog wel verbetering in, maar het wordt evolutionair, niet revolutionair.

Modellen worden steeds vaker multimodaal en kunnen dus niet alleen tekst, maar ook beelden, audio en video maken. En in plaats van grotere modellen gaan we naar efficiëntere modellen zoals Mixture of Experts (MoE) en state space-modellen, die veel slimmer omgaan met rekenkracht en geheugen. Er komen ook steeds meer verticale modellen, getraind op branches zoals finance, gezondheidszorg of code, en deze leveren betere en betrouwbaardere prestaties.

Omdat de rek eruit lijkt, zie je dat AI-bedrijven zich ook richten op andere zaken, waarbij AI Agents de nieuwe belofte zijn. Agentic systemen kunnen zelfstandig informatie verwerken, beslissingen nemen en acties uitvoeren om een taak succesvol af te ronden. Tenminste, dat is de nieuwe belofte. Maar agents moeten heel foutloos zijn willen ze echt succesvol taken kunnen afronden. Want als één agent 90 procent accuraat is en ik heb 10 agents in een systeem zitten, is de kans dat alle 10 agents samen correct werken maar 35 procent. Dat terwijl juist die betrouwbaarheid van een LLM zo moeilijk te verhogen is. Na veel spelen met AI-agents kan ik je ook vertellen dat ze heel gaaf zijn als ze werken, maar dat de foutmarge inderdaad te hoog is om zonder menselijke controle te kunnen functioneren als systemen complexer worden.

Ik geloof daarmee dat we op dit moment op het hoogtepunt van de AI-hype zitten en dat nieuwe grote stappen in het AI-werkveld drie tot vijf jaar in de toekomst liggen. Maar dat betekent ook dat we heel goed kunnen zien wat de werkelijke mogelijkheden van AI de komende periode zullen zijn, omdat we nu zo goed kunnen zien wat LLM’s wel en wat LLM’s niet kunnen.

Wat AI wel kan: de werkelijke kracht van LLM’s

Ongelooflijk goede tekst genereren

LLM’s zijn fenomenaal in het produceren van tekst die natuurlijk klinkt en past in de context. Ze kunnen:

  • Een zakelijke e-mail schrijven in precies de juiste toon
  • Technische documentatie produceren die logisch opgebouwd is
  • Verhalen vertellen met consistente karakters en een plot
  • Code schrijven die daadwerkelijk werkt voor veel standaardtaken

Het bijzondere is dat ze dit kunnen doen zonder template of vaste regels – ze “voelen” aan wat passend is in de gegeven situatie.

Patronen herkennen die mensen missen

LLM’s zijn buitengewoon goed in het spotten van subtiele verbanden die mensen over het hoofd zien:

  • In grote datasets kunnen ze trends identificeren die pas duidelijk worden als je miljoenen voorbeelden hebt gezien
  • Ze herkennen stijlkenmerken van schrijvers die zelfs literaire experts zouden missen
  • Bij medische teksten kunnen ze symptoomcombinaties linken die een menselijke arts misschien niet onmiddellijk zou zien
  • Ze pikken culturele referenties en woordspelingen op die werken over verschillende talen en contexten heen

Dit komt omdat ze getraind zijn op zoveel tekst dat ze patronen kunnen zien die ontstaan uit de collectieve menselijke kennis.

Heel veel verschillende stijlen en onderwerpen combineren

Hier zijn LLM’s echt uniek in. Ze kunnen:

  • Een wetenschappelijk onderwerp uitleggen in de stijl van een kinderpresentatie
  • Shakespeariaanse sonnetten schrijven over moderne technologie
  • Juridische documenten omzetten naar begrijpelijke consumentententaal
  • Verschillende academische disciplines combineren op manieren die een expert in één veld misschien niet zou bedenken
  • En ze kunnen dit over talen heen: of het nu Engels, Nederlands of Code is. De AI ziet daarin amper verschil.

Ze fungeren daarmee als een soort “universele vertaler” tussen verschillende kennisdomeinen, communicatiestijlen en talen.

Soms verrassend goede antwoorden geven

Dit is misschien wel het meest fascinerende aspect. LLM’s komen regelmatig met inzichten die zelfs hun makers verrassen:

  • Ze geven ‘creatieve’ oplossingen voor problemen waar mensen vastzitten
  • Ze maken verbanden tussen schijnbaar ongerelateerde concepten
  • Ze kunnen complexe filosofische vragen beantwoorden op manieren die aanzetten tot nadenken
  • Bij programmeren vinden ze soms elegante oplossingen die ik als developer niet onmiddellijk zou bedenken

Al bovenstaande zaken zijn super waardevol en kunnen -mits goed ingezet- echt impact hebben op ons werk. Er is echter ook heel veel, wat die LLM niet gaat kunnen.

Wat AI niet kan: de fundamentele beperkingen van AI

Een AI snapt niet hoe de wereld werkt

Dit is de grootste misvatting over LLM’s: ChatGPT “weet” niet wat een appel is. Het heeft geen idee dat appels zwaar zijn, van bomen vallen, of zoet smaken. Het kent alleen tekstpatronen over appels.

Dit gebrek aan wereldbegrip heeft grote praktische gevolgen:

  • Ze kunnen overtuigend onjuiste informatie geven (“hallucinaties”)
  • Ze begrijpen niet wanneer hun antwoord gevaarlijk of zinloos is
  • Ze hebben geen besef van fysieke wetten – ze weten niet dat dingen naar beneden vallen
  • “Kennis” bestaat uit losse tekstfragmenten, niet uit een samenhangend beeld van hoe de wereld werkt

Waarom dit belangrijk is: ChatGPT kan je vertellen hoe je een taart bakt, maar snapt niet dat je de oven moet aanzetten voordat je de taart erin stopt, of dat je je hand verbrandt als je een hete oven aanraakt.

AI kan niet leren en onthouden

Elke keer dat je een nieuw gesprek begint met ChatGPT, start het vanaf nul. Het kan niet:

  • Leren van eerdere fouten of successen
  • Patronen ontdekken in zijn eigen prestaties
  • Kennis opbouwen over tijd
  • Begrijpen dat sommige acties onomkeerbaar zijn

Waarom dit belangrijk is: Een menselijke assistent zou na een paar gesprekken jouw voorkeuren leren. Een LLM moet je elke keer opnieuw uitleggen wat je wilt.

AI kan niet echt redeneren

Een LLM kan alleen goed omgaan met situaties die lijken op wat het tijdens training heeft gezien. Bij echte nieuwe problemen faalt het omdat:

  • Het geen logische stappen kan doorlopen om tot nieuwe conclusies te komen
  • Het geen betrouwbare manier heeft om de eigen redeneringen te controleren
  • Het geen betrouwbare manier heeft om te zeggen “Dit weet ik niet zeker”
  • Het alleen patronen herkent, maar niet begrijpt

Waarom dit belangrijk is: Als je vraagt “Wat gebeurt er als ik een rode auto door blauw licht laat rijden?”, kan ChatGPT de concepten “rood”, “auto” en “blauw licht” niet betrouwbaar combineren tot “stoplichten zijn niet blauw”, en “je mag niet door rood licht rijden”.

AI kan niet plannen en niet terug- of vooruitkijken

Een LLM leeft volledig in het “nu” van tekstgeneratie. Elke zin is gebaseerd op de vorige zinnen, niet op een doordacht eindresultaat.

  • Het kan geen verschillende toekomstscenario’s tegen elkaar afwegen
  • Niet bijstellen op basis van hoe een plan uitpakt
  • Zal niet begrijpen dat gebeurtenissen oorzaken en gevolgen hebben
  • Kan niet proactief handelen of initiatief nemen

Waarom dit belangrijk is: Vraag je “Maak een plan om een bedrijf op te zetten”, dan krijg je een mooie lijst. Maar die is gebaseerd op wat typische “bedrijf-opstarten” teksten bevatten, niet op echte analyse van jouw situatie, de markt, of haalbare volgende stappen.

Wat heb jij als gebruiker of bedrijf aan AI-systemen?

Nu je snapt wat een LLM wel en niet kan en vooral gaat kunnen, wordt het interessant: wat betekent dit voor jouw werk en bedrijf? Laten we daar wat realistische voorspellingen over doen.

LLM’s zijn fantastisch voor taken die lijken op wat ze al hebben gezien

Waarom ChatGPT zo goed is in het schrijven van standaard zakelijke e-mails, het maken van samenvattingen van rapporten, of het genereren van marketingteksten? Het heeft miljoenen voorbeelden van dit soort teksten gezien tijdens training. Het patroon “schrijf een professionele e-mail om een vergadering te verzetten” heeft het duizenden keren voorbij zien komen.

Maar vraag het om een compleet nieuwe marketingstrategie voor jouw specifieke nichebedrijf in Lutjebroek, en de kwaliteit zakt in elkaar. Dan gaat het namelijk improviseren op basis van algemene marketing-clichés.

LLM’s zijn onbetrouwbaar voor kritieke beslissingen of nieuwe situaties

Hier wordt het gevaarlijk. LLM’s zijn enorm overtuigend, ook als ze het helemaal fout hebben. Ze kunnen met grote stelligheid beweren dat bepaalde wettelijke regels gelden die helemaal niet bestaan, of financiële adviezen geven die rampzalig zijn.

Voor alles wat echt belangrijk is – juridische documenten, financiële berekeningen, medische adviezen, strategische bedrijfsbeslissingen, en dus ook zaken als computercode – kun je ze niet vertrouwen zonder menselijke controle.

AI werkt het best als “intelligente assistent” onder menselijk toezicht

Dit is de sweet spot: gebruik AI als een heel slimme stagiair. Of het nu voor user interface-ontwerp is, programmeren of het schrijven van teksten: AI is een hele snelle junior die met de juiste begeleiding snel geweldige dingen voor elkaar kan krijgen.

Perfect voor eerste versies van documenten, brainstormsessies, researchondersteuning, of het uitwerken van ideeën. Maar altijd met jou als eindverantwoordelijke.

En dit is precies waar de waarde zit. In plaats van een uur te besteden aan het schrijven van een projectvoorstel, laat je de AI in 5 minuten een eerste versie maken die je dan in 15 minuten bijslijpt. Dat is een enorme tijdwinst, zonder dat je de controle verliest.

Wat je de komende periode van AI-systemen kunt verwachten

Helaas -of gelukkig- krijgen we de komende periode geen super AI of AGI, maar er komt wel degelijk interessante ontwikkeling aan.

De bestaande AI-systemen worden stapje voor stapje iets beter

Denk hierbij niet aan revolutionaire sprongen, maar aan de evolutie van je smartphone. Elke nieuwe iPhone is een beetje beter dan de vorige, maar het blijft fundamenteel hetzelfde apparaat. Zo gaan we ook GPT-6, 7 en 8 zien – elke keer wat beter in tekstgeneratie, wat minder hallucinaties, wat betrouwbaarder. Maar geen magische doorbraak naar echte intelligentie.

Met MCP’s en workflow tools gaat AI eindelijk dingen kunnen doen

Hier zit volgens mij de echte ontwikkeling. Model Context Protocols (MCP’s) maken het mogelijk dat AI-systemen daadwerkelijk kunnen communiceren met andere software, zeker als je het combineert met workflow tools. In plaats van alleen tekst genereren, kunnen ze daarmee ook taken uitvoeren: data ophalen uit je CRM, rapporten maken in Excel, e-mails versturen, agenda’s beheren.

Dit klinkt spectaculair, maar er is een maar: het is nu nog heel technisch. Je hebt nu nog veel technische kennis nodig om deze systemen op te zetten, te configureren en te onderhouden. Gelukkig zie je ook de eerste stappen om dit eenvoudiger te maken. Onder andere Claude heeft al een soort appstore van Connectors, wat een stuk minder technisch is dan de MCP’s. Let wel: menselijke controle blijft ontzettend belangrijk!

Er komen specialistische AI-tools voor specifieke administratieve problemen

Ik verwacht dat we niet één super-AI krijgen, maar honderden gespecialiseerde AI-tools. Denk aan een systeem dat enorm goed is in factuurverwerking voor bouwbedrijven. Een ander dat specifiek ontworpen is voor juridische contractanalyse. Weer een ander voor personeelsplanning in de zorg.

Deze tools zullen de LLM “verstoppen” onder een gebruiksvriendelijke interface. Je hoeft niet te weten dat er een language model onder de motorkap zit – je drukt op een knop en je facturen worden verwerkt. Maar er zit altijd menselijke supervisie bij.

Het blijft technisch, maar wordt geleidelijk eenvoudiger

De komende 2-3 jaar blijft automatisering met AI vooral iets voor techneuten en early adopters. Je moet nog steeds begrijpen hoe workflows werken, kunnen beoordelen of AI-output klopt, en problemen kunnen debuggen als het fout gaat.

Maar langzaam komen er meer “no-code” oplossingen. Denk aan hoe website bouwen is geëvolueerd van zelf programmeren naar WordPress. Dat gaat ook met AI-tools gebeuren.

Meer standaard workflows en templates, maar je moet nog steeds begrijpen hoe ze werken

Over een paar jaar zie je waarschijnlijk kant-en-klare AI-workflows voor veelvoorkomende bedrijfstaken. “Download onze factuurverwerking-AI” of “Installeer onze klantservice-assistent”.

Maar net zoals je nu nog steeds moet begrijpen hoe je website werkt om hem goed te gebruiken, moet je dan nog steeds snappen wat die AI-workflow doet. Anders wordt het een black box die soms mysterieus faalt.

Agentic systems worden stabieler, maar zijn nog steeds fragiel en hebben babysitting nodig

“Agentic” AI-systemen – die zelfstandig taken kunnen uitvoeren – zijn nu nog ontzettend fragiel en technisch complex. Ze werken geweldig in demo’s, maar in de echte wereld lopen ze vast bij de eerste uitzondering.

Dit wordt beter, maar verwacht de komende jaren geen systemen die helemaal zelfstandig werken. Er moet altijd iemand in de buurt zijn om in te grijpen als het fout gaat.

De praktische realiteit voor jouw werk

Nu we dit weten is het goed om na te denken welke delen van jouw werk wel en niet automatiseerbaar zijn.

Administratieve taken die wél goed geautomatiseerd kunnen worden

  • Standaard data-entry en -verwerking (facturen, orders, contactgegevens)
  • Eenvoudige rapportages uit bestaande systemen
  • Routine e-mailbehandeling en agenda-beheer
  • Basis boekhouding en factuurverwerking

Maar – en dit is belangrijk

  • Iemand moet deze systemen nog steeds opzetten en onderhouden
  • Uitzonderingen en complexere gevallen hebben nog menselijke tussenkomst nodig
  • De transitie is geleidelijk – bedrijven zullen echt moeten starten bij processen die veel bedrijfs- of klantwaarde opleveren.

Voor administratieve professionals betekent dit:

Je baan verdwijnt niet, maar verandert wel. Routinetaken worden minder, maar verdwijnen niet volledig. Er komt juist meer vraag naar mensen die kunnen werken met AI-tools – je wordt een soort “AI-manager” die toezicht houdt op geautomatiseerde processen en de uitzonderingen afhandelt.

Je focus verschuift van het uitvoeren van routinetaken naar het bewaken van systemen, het afhandelen van complexere gevallen, en het optimaliseren van processen.

En dan nog even de kritische realiteit: waarom het langzamer gaat dan de hype

Waarom gaat het allemaal zo veel langzamer dan de hype? Daar zijn een aantal redenen voor.

  • Betrouwbaarheid: AI maakt nog te vaak fouten voor volledig autonome systemen. Je kunt je bedrijf niet laten runnen door iets dat 95 procent van de tijd goed werkt.
  • Complexiteit: Echte bedrijfsprocessen zijn rommelig. Ze hebben uitzonderingen, speciale gevallen, en politieke gevoeligheden. AI-systemen houden niet van rommel.
  • Integratie: Veel -vooral oude – bestaande systemen praten niet netjes met nieuwe AI-tools. Alles koppelen kost veel tijd en geld.
  • Kosten vs. baten: Voor veel kleine bedrijven is de return on investment (ROI) nog niet duidelijk of zelfs niet aanwezig. Waarom €10.000 investeren in AI-automatisering als je huidige proces gewoon werkt?
  • Mensen veranderen langzaam: Maar de belangrijkste: mensen veranderen langzaam. Je team moet leren werken met nieuwe tools. En een mens verandert nu eenmaal minder snel dan de techniek.

De toekomst van AI

De nieuwe aanpak: kleinere AI-systemen met elk hun eigen specialisme die écht samenwerken

In plaats van één gigantisch systeem dat alles probeert te doen -de huidige LLM route-, bouwen onderzoekers nu AI-systemen die uit meerdere onderdelen bestaan – een beetje zoals een team van specialisten die samenwerken. De LLM is daar één van de componenten van, niet “het” totale component.

Large Language models voor begrip

Dit zijn de ChatGPT-achtige systemen die we al kennen. Hun taak wordt nu heel specifieker: ze lezen tekst, begrijpen wat er gevraagd wordt, en vertalen dat naar een vorm die de andere onderdelen kunnen gebruiken. Ze hoeven niet meer alles zelf te doen – ze zijn gewoon de “vertaler” van het team.

Wereldmodellen in handgeschreven logica die uitlegt hoe dingen werken

Dit is het deel dat mensen handmatig programmeren met regels. Bijvoorbeeld: “Als je een schaakstuk verplaatst, dan kan het niet meer op zijn oude plek staan.” Of: “Als iemand geld uitgeeft, heeft hij minder geld.” Dit zijn logische regels die je vastlegt – niet iets wat de AI zelf hoeft uit te vogelen.

Predictive AI om toekomstscenario’s door te rekenen

Predictive AI kan verschillende scenario’s doorrekenen. Waar een LLM woorden of pixels voorspelt, analyseert een Predictive AI historische data en statistische patronen. Zie het als een planning- simulatiesysteem in plaats van een tekst generatie systeem. Als we teruggaan naar het schaakvoorbeeld, is dit het systeem dat zegt: “Als ik deze zet doe, wat kan mijn tegenstander dan doen? En wat doe ik dan weer?”. Het werkt daarin in twee stappen:

Stap 1 – Simuleren: “Als ik paard naar f3 zet, dan kan mijn tegenstander loper naar g4 zetten of de dame naar d5 bewegen.”

Stap 2 – Evalueren: Het systeem evalueert elke mogelijke positie: “Na paard-f3 en loper-g4 heb ik een licht voordeel (+0.3), na dame-d5 sta ik slechter (-0.4).”

Het werkt zoals een GPS die verschillende routes berekent om te kijken welke het snelst is. Dergelijke systemen worden al concreet ingezet op dit moment, bijvoorbeeld door Air France KLM, om vliegtuigonderhoud te plannen.

Concrete aanbevelingen geven met prescriptive AI

Prescriptive AI gaat verder dan alleen voorspellen – het adviseert wat je daadwerkelijk moet doen op basis van kansberekening. Optimalisatiealgoritmen, beslissingsbomen en bedrijfsregels zijn de basis voor dergelijke AI systemen, iets waar een LLM geen gebruik van maakt.

Prescriptive AI zegt: “Op basis van alle berekeningen is dit je beste actie.” Als we teruggaan naar het schaakbord: “Van alle 20 mogelijke zetten geeft paard naar f3 je de beste kansen omdat het je centrum controleert én je tegenstander dwingt defensief te spelen.” Dit is ook hoe Google’s schaak-AI AlphaZero werkt:

  1. Wereldmodel: Ao werkt schaken
  2. Predictive AI: Berekent miljoenen mogelijke zetvolgordes en evalueert elke positie
  3. Prescriptive AI: Kiest de zet die statistisch de hoogste winkans geeft

Actiemogelijkheden: daadwerkelijk dingen doen in de wereld

Actiemogelijkheden zorgen ervoor dat een systeem niet alleen nadenkt, maar ook daadwerkelijk iets doet – een schaakzet maken, een e-mail versturen, of een robot laten bewegen. Hier hebben MCP’s waar ik eerder over schreef veel potentie en voor je beeld: toen ik er een aantal maanden geleden mee begon te experimenteren waren er zo’n 3000 MCP’s. Inmiddels zijn er meer dan een miljoen.

Waarom dit beter werkt

Veel kleiner en efficiënter

In plaats van één monster-AI die triljoenen parameters heeft, kun je vijf kleinere systemen maken die elk hun eigen ding goed doen. Een schaak-systeem dat wint van de beste schakers werkt op een normale laptop – terwijl GPT-4 gigantische datacenters nodig heeft.

Specialistische taken op menselijk niveau

Omdat elk onderdeel geoptimaliseerd is voor zijn eigen taak, kunnen ze echt uitblinken. De schaak-AI is niet “een beetje goed in alles” maar is goed in één ding: schaak.

Economischer

Je hoeft niet elke keer een compleet nieuw systeem te trainen dat alles opnieuw moet leren. Je kunt bestaande onderdelen hergebruiken en alleen nieuwe onderdelen toevoegen voor nieuwe taken. Bovendien zijn ze specialistisch AIs veel goedkoper om te draaien omdat ze kleiner zijn.

Het grote verschil met de oude aanpak

Wat AI-bedrijven hebben geprobeerd te doen is het volgende: “Laten we ChatGPT zo groot maken dat het vanzelf kan schaken.”

Wat we inmiddels echter weten is dat dit met de huidige aanpak nooit mogelijk gaat zijn. De nieuwe aanpak is dus anders. “Laten we een schaaksysteem bouwen met ChatGPT als één van de onderdelen van het totale systeem.”

Het is het verschil tussen verwachten dat één persoon dokter, advocaat, ingenieur en kok wordt, versus een team samenstellen waar iedereen zijn eigen expertise heeft.

Deze nieuwe aanpak is minder spectaculair dan de belofte van één super-AI, maar waarschijnlijk veel praktischer en betrouwbaarder. Dat betekent ook dat de hype eraf kan en dat er wel degelijk waarde gevonden gaat worden in AI-systemen. Dus AI-verandering komt echt en als je ook maar iets doet met kenniswerk of administratieve arbeid dan.

Conclusie: AI is geen magie, maar wel een krachtige verandering

De AI-revolutie die begon met ChatGPT leert ons een belangrijke lessen die we eigenlijk bij iedere tech-hype weer opnieuw lijken te moeten leren: temper je verwachtingen, geloof niet blindelings in beloftes en experimenteer zelf om te zien wat nieuwe technologie werkelijk kan. Het antwoord op hype is simpel: focus je op tastbare resultaten die je bedrijfs- en klantwaarde opleveren.

En het feit dat we op het hoogtepunt van de AI-hype zitten, betekent niet dat AI waardeloos is – integendeel.

De harde realiteit is dat LLM’s geen echte intelligentie hebben ontwikkeld. Ze blijven geavanceerde voorspellers die geen appel kunnen proeven of begrijpen waarom die van een boom valt. Maar binnen die beperkingen zijn ze buitengewoon waardevol: ze zijn fenomenale tekstgeneratoren, patroonherkenners en veelzijdige assistenten die ons werk kunnen versnellen en verbeteren.

De toekomst van AI ligt niet in één alwetende superintelligentie, maar in slimmere samenwerking. Gespecialiseerde AI-systemen die elk hun eigen expertise hebben, gecombineerd met praktische tools zoals MCP’s die AI daadwerkelijk dingen laten doen in plaats van alleen maar tekst produceren. Dit is minder spectaculair dan de belofte van AGI, maar heel nuttig in ons dagelijks werk.

Voor jouw werk betekent dit een pragmatische kans: gebruik AI als een zeer capabele junior collega onder jouw supervisie. Laat het de eerste versies maken, patronen zoeken en routinetaken versnellen, maar behoud zelf de controle over belangrijke beslissingen en complexe situaties. Dat is geen teleurstelling – dat is precies de manier waarop technologie altijd het beste heeft gewerkt: als een verlengstuk van menselijke intelligentie, niet als vervanging ervan.

De AI-revolutie is dus niet voorbij, maar wel volwassen aan het worden. En dat is eigenlijk veel interessanter dan de hype.

 

Bovenstaande artikel is geschreven door Mark Vletter. Mark is oprichter van Voys en pionier in zelfsturing, technologie en organisatieontwikkeling. Vanuit zijn nieuwsgierigheid naar technologische, organisatorische en maatschappelijke trends verkent hij continu de toekomst van werk en communicatie. Binnen Voys vertaalt Mark die inzichten naar experimenten die de organisatie en haar product verder brengen. Hij verbindt strategie met praktijk: leren door te doen, reflecteren en verbeteren. Als spreker en schrijver deelt Mark zijn ervaringen over innovatie, autonomie en de kracht van experimenteren. Buiten Voys zoekt hij dezelfde verwondering als in zijn werk: in de natuur, met zijn kinderen of op een bergpad bij zonsopkomst – altijd met een zwarte koffie in de hand.

Dit artikel is eerder geplaatst op voys.nl.

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties