Wat komt er na de LLM’s?

In de technologie-industrie lijkt de tijd sneller te gaan dan ergens anders. Nauwelijks zijn Large Language Models (LLM’s) doorgedrongen tot de boardrooms van bedrijven of de volgende vraag duikt al op: wat komt hierna? Tijdens conferenties, zoals EmTech AI van MIT Technology Review, wordt deze vraag inmiddels openlijk gesteld. Het is een interessante vraag, maar ook een gevaarlijke. Want de geschiedenis van technologie laat zien dat we vaak al vooruitkijken naar de volgende revolutie terwijl we de huidige nog nauwelijks begrijpen.

De realiteit is namelijk dat veel organisaties nog midden in de eerste fase van de AI-adoptie zitten: experimenteren met generatieve AI, zoeken naar toepassingen in werkprocessen en vooral ontdekken waar de technologie wél en niet werkt. Toch is de nieuwsgierigheid naar “wat na LLM’s komt” begrijpelijk. Want hoewel LLM’s indrukwekkend zijn, voelen veel experts ook aan dat ze niet het eindstation van AI zijn.

Maar als we eerlijk kijken naar wat er momenteel in onderzoekslabs en technologiebedrijven gebeurt, dan is het antwoord minder spectaculair dan vaak wordt gesuggereerd.

LLM’s als infrastructuur

De eerste belangrijke ontwikkeling is dat LLM’s steeds minder worden gezien als een eindproduct en steeds meer als een infrastructuurlaag. Vergelijk het met databases of cloudplatforms. Die vormen ook geen applicaties op zich, maar zijn de basis waarop toepassingen worden gebouwd.

Hetzelfde begint te gebeuren met LLM’s. In plaats van één model dat vragen beantwoordt, zien we steeds vaker systemen waarin taalmodellen een onderdeel zijn van een groter geheel. Ze fungeren als een soort interface tussen mensen, data en software.

Dat betekent dat de volgende fase van AI waarschijnlijk niet wordt gedomineerd door nóg grotere taalmodellen, maar door systemen waarin modellen samenwerken met databronnen, softwaretools en bedrijfsprocessen.

De waarde verschuift daarmee van het model zelf naar het systeem eromheen.

Van chatbots naar AI-systemen

Een tweede ontwikkeling is de opkomst van wat vaak “agentic AI” wordt genoemd. In plaats van een model dat alleen antwoorden genereert, gaat het dan om systemen die zelfstandig taken uitvoeren.

Denk aan software die:

  • informatie verzamelt uit verschillende databronnen
  • analyses uitvoert
  • rapportages opstelt
  • en vervolgens acties kan voorstellen of zelfs uitvoeren

In zo’n systeem is het taalmodel niet langer de ster van de show, maar eerder een component binnen een breder software-ecosysteem.

De AI-industrie beweegt zich dus langzaam van chatinterfaces naar operationele systemen.

De zoektocht naar echte “world models”

Ondertussen wordt er in academische kringen gewerkt aan een ander type AI-model: zogenaamde world models. LLM’s zijn namelijk uitstekend in het herkennen van taalpatronen, maar ze hebben nauwelijks begrip van hoe de wereld werkt.

Ze weten hoe zinnen statistisch in elkaar zitten, maar niet hoe fysieke of economische systemen functioneren.

Onderzoekers proberen daarom modellen te ontwikkelen die beter begrijpen:

  • causaliteit
  • dynamische systemen
  • tijdsafhankelijke processen
  • en interacties tussen variabelen

Voor toepassingen zoals robotica, logistiek of energiebeheer kan dat uiteindelijk belangrijker blijken dan taalmodellen.

Maar deze ontwikkeling staat nog grotendeels in de onderzoeksfase.

De stille comeback van kleine modellen

Misschien wel de meest interessante ontwikkeling is precies het tegenovergestelde van de hype rond gigantische AI-modellen.

Steeds meer bedrijven experimenteren namelijk met kleine, gespecialiseerde modellen.

De reden is simpel. Grote generieke modellen zijn indrukwekkend, maar ook duur, traag en lastig te controleren. Voor veel praktische toepassingen blijken kleinere modellen, getraind op specifieke datasets, vaak efficiënter en betrouwbaarder.

In plaats van één universeel model zien we daarom steeds vaker een landschap ontstaan van gespecialiseerde AI-tools. Een model voor contractanalyse. Een model voor medische triage. Een model voor fraudedetectie.

Dat is een ontwikkeling die opvallend goed aansluit bij hoe data-analyse zich de afgelopen decennia heeft ontwikkeld.

De echte bottleneck: data

Misschien is de belangrijkste les van de afgelopen twee jaar wel dat AI zonder goede data weinig waarde oplevert. Veel organisaties ontdekten al snel dat de grootste uitdaging niet ligt in het model zelf, maar in de kwaliteit en toegankelijkheid van data.

AI-systemen functioneren immers alleen goed wanneer ze gevoed worden met betrouwbare, gestructureerde en goed beheerde datastromen.

Voor veel bedrijven betekent dit dat de echte investering niet zit in AI-modellen, maar in:

  • data-architectuur
  • datakwaliteit
  • governance
  • en integratie met bedrijfsprocessen

Met andere woorden: de klassieke disciplines van data-engineering en analytics blijven minstens zo belangrijk als AI zelf.

De realiteit achter de hype

En dat brengt ons terug bij de oorspronkelijke vraag: wat komt er na de LLM’s?

Als we alle ontwikkelingen bij elkaar nemen, dan lijkt het antwoord voorlopig vrij nuchter. Er komt waarschijnlijk geen compleet nieuw type AI dat de huidige generatie modellen plotseling vervangt.

Wat we eerder zullen zien is een geleidelijke evolutie waarin:

  • taalmodellen onderdeel worden van grotere systemen
  • gespecialiseerde modellen naast elkaar bestaan
  • AI nauwer geïntegreerd raakt met data-infrastructuur
  • en toepassingen steeds meer gericht zijn op concrete bedrijfsprocessen

Het spektakel zit dus minder in nieuwe modeltypes en meer in de manier waarop AI wordt ingebed in organisaties.

Minder magie, meer systemen

Voor professionals in finance, audit en control is dat misschien wel de belangrijkste conclusie. De waarde van AI zal waarschijnlijk niet ontstaan uit spectaculaire nieuwe modellen, maar uit de combinatie van data, analytics en automatisering van processen.

Of anders gezegd: na de hype rond generatieve AI volgt waarschijnlijk een fase waarin organisaties ontdekken dat de echte uitdaging nog steeds dezelfde is als tien jaar geleden.

Het organiseren van goede data.

In die zin zou het antwoord op de vraag “what comes after LLM’s?” wel eens verrassend simpel kunnen zijn.

Niet een nieuwe vorm van kunstmatige intelligentie.

Maar vooral betere systemen rondom data en besluitvorming.

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties