De geschiedenis herhaalt zich. Misschien niet letterlijk, maar hij rijmt wel. Nieuwe technologie brengt verwondering, hoop en vrees met zich mee. Van Plato die zich zorgen maakte over de invloed van schrift, tot mensen die dodelijke ziektes hoopten te genezen met dubieuze medicijnen – steeds weer zoeken mensen houvast in het onbekende.
Vandaag belooft kunstmatige intelligentie onze wereld te veranderen. Maar supersnelle technologische ontwikkelingen roepen ook vragen op die verrassend vertrouwd klinken. In deze serie kijken we in historische spiegels, en we bekijken patronen van menselijk gedrag die telkens terugkeren. Wat leren ze ons over de uitdagingen van nu? En belangrijker nog: hoe zorgen we dat we niet in dezelfde fouten vervallen?
Mensen verdragen geen leegte. We zoeken houvast in verhalen en systemen, en waar feiten ontbreken vullen we de gaten zelf in. Dat gold al voor de 16e-eeuwse kaartenmakers: hoe gedetailleerder de wereld werd vastgelegd, hoe meer de oningevulde vlakken in het oog sprongen. Vooral de oceanen spraken tot de verbeelding – wat er zich onder het wateroppervlak allemaal afspeelde was nog onbereikbaar terrein.
Omdat wereldkaarten vaak decoratief waren, gemaakt in opdracht van de elite, was het zaak er echt wat moois van te maken. Ooggetuigenverslagen en folklore werden vertaald naar zeewezens, -monsters en -meerminnen, en deze wezens kregen prominente plekken op de wereldkaarten. Cartografen deden hun best om trouw te blijven aan de bronnen die zij tot hun beschikking hadden, maar dat had voornamelijk tot resultaat dat zij hun eigen draai gaven aan, zoals wij nu weten, fantasiewezens. Geloofden ze echt dat deze bestonden? Dat is eigenlijk van minder belang. De aanwezigheid van de mythische wezens sprak tot de verbeelding, prikkelde de geest, en was esthetisch wenselijker dan leegte.
Anno 2025 zien we iets vergelijkbaars gebeuren bij LLM’s. Deze hebben toegang tot een oceaan aan data, maar maken geen onderscheid tussen wat klopt en wat is verzonnen. Waar gaten vallen, vullen ze deze met wat er maar in het narratief past en het betoog onderstreept. Indien nodig worden er bronnen bedacht. Zaak dus om extra op je hoede te zijn: hic sunt hallucinationes.
AI-hallucinaties zijn overtuigend klinkende onzin. Ze ontstaan onder meer doordat de gegevens waarmee het model getraind is onvolledig of onnauwkeurig zijn, of er zitten vertekeningen in. Daarnaast spelen factoren mee zoals de prompt, de complexiteit van het model, de kwaliteit van de testfase, of zelfs programmeerfouten en manipulatie van buitenaf.
Omdat AI-tools inmiddels breed worden gebruikt op de werkvloer, is de kans groot dat medewerkers hiermee in aanraking komen. In principe logisch, want een LLM kan behulpzaam zijn en helpen bij efficiënter werken. Maar het gevaar schuilt erin dat zulke verzonnen antwoorden serieus worden genomen en toegepast zonder extra controle. De betrouwbaarheid van bronnen wordt niet gecheckt (of er wordt helemaal niet om bronnen gevraagd), men gaat niet na of de inhoud van de bronnen nog correct is, of LLM-antwoorden worden uit hun context getrokken. Dit kan leiden tot grote problemen binnen een organisatie.
Tenslotte, als je de basis voor je beleid rechtstreeks uit ChatGPT trekt, moet dit wel zijn gefundeerd op ware data en niet op LLM-verzinsels. In Alaska gebruikte het ministerie van Onderwijs generatieve AI bij het opstellen van een beleid over telefoongebruik op scholen. Daarbij werden verzonnen academische citaten en statistieken opgenomen, die overtuigend oogden maar in werkelijkheid niet bestonden. Zelfs na kritiek, onderzoek en aanpassingen bleven sommige foutieve verwijzingen bestaan.
Ook in de rechtszaal zorgen AI-hallucinaties voor problemen. Het advocatenkantoor Cole Schotz waarschuwde in een blog dat het gebruik van slecht geverifiëerde AI-informatie grote reputatie- en tuchtrisico’s vormt voor juristen. In recente zaken dienden advocaten door ChatGPT verzonnen jurisprudentie in, wat leidde tot publieke berispingen. Het artikel benadrukte dat AI alleen veilig gebruikt kan worden als de resultaten zorgvuldig worden geverifieerd en nooit klakkeloos in juridische stukken worden overgenomen.
In de financiële sector worden strenge maatregelen genomen om risico’s omtrent AI-hallucinaties te voorkomen. Banken als JPMorgan Chase, Wells Fargo en Goldman Sachs verboden in eerste instantie het gebruik van generatieve AI onder hun medewerkers, al zijn deze regels inmiddels aangepast. De banken hebben uitgebreide AI-governancepolicies ingevoerd, die nauwkeurig bepalen wanneer en hoe generatieve AI veilig gebruikt kan worden. JPMorgan Chase heeft een eigen LLM ontwikkeld, dat volledig draait binnen de beveiligde infrastructuur van de bank zelf. Tot dusver is deze, voor zover bekend, hallucinatievrij gebleven, maar experts zijn het erover eens dat hallucinaties binnen LLM’s altijd een risico zullen blijven.
Binnen het onderwijs wordt de noodklok geluid. Onderwijzers zien een immense groei in gebruik van AI en merken ook dat dit invloed heeft op het jonge brein. Met zoveel kennis tot je beschikking, die binnen een paar seconden in hapklare brokken wordt voorgeschoteld, komt het kritisch denken in de knel. Een recente MIT-studie onderzocht deelnemers tussen de 18 en 39 jaar, die de opdracht kregen een essay te schrijven. Zij werden verdeeld in drie groepen, waarvan één ChatGPT gebruikte, één Google, en één geen enkel hulpmiddel.
Bij de ChatGPT-groep toonden EEG-metingen aan dat er minder hersenactiviteit, verminderde aandacht en lagere controle was. Deze studenten namen steeds vaker genoegen met het direct overnemen van stukken AI-gegenereerde tekst in plaats van zelf na te denken. De aandachtsspanne verslapt, de veerkracht van het brein verdwijnt. ‘Digital amnesia’ treedt in – kennis wordt niet langer opgeslagen in het geheugen, want het kan toch altijd weer worden opgezocht. Aan een ander uitleggen wat ChatGPT je net heeft verteld blijkt lastig; het is eigenlijk niet zo goed blijven hangen. Bronnen verifiëren raakt op de achtergrond. Belangrijker is dat de gevonden informatie aansluit bij het antwoord wat de vrager zoekt. AI-hallucinaties versterken dit effect. Een student die Google gebruikt komt soms op sites die argwaan wekken en zichzelf diskwalificeren. Een AI-hallucinatie oogt vaak als een sluitende bron. Het is precies die overtuigende onzin die het kritisch denken ondermijnt.
Terug naar de 16e eeuw. Cartografen tekenden zeemonsters op plekken waar hun kennis ophield. Mogelijk beseften zij zelf dat deze wezens uit folklore en bestiaria kwamen en voegden zij deze toe uit esthetisch oogpunt: de toevoegingen maakten de kaart aantrekkelijker en prestigieuzer. Toch kregen ze bij zeevaarders en lezers een serieuze status. Ze dienden als waarschuwing voor onbekend terrein, als bevestiging van angsten, of zelfs als legitimatie voor politieke claims.
Indirect hadden ze hun invloed op handelsroutes en wereldbeelden. Zo tekende Olaus Magnus op de Carta Marina (1539) angstaanjagende monsters die schepen aanvielen: waarschuwingen die zeevaarders ertoe konden brengen gevaarlijke routes te mijden. En soms kregen de wezens zelfs een politieke lading: zo werd koning Manuel I van Portugal afgebeeld terwijl hij, gezeten op een mythisch zeebeest, de Afrikaanse kust domineerde, als een visuele legitimatie van Portugese maritieme macht. En ook meer obscure fabeldieren, zoals de Ziphius met de kop van een uil en het lijf van een vis, kregen een plek op kaarten van Noord-Europa, waarmee ze generaties zeevaarders het gevoel gaven dat bepaalde wateren levensgevaarlijk waren.
Net als de kaartmakers van weleer vullen AI-modellen hun leegtes liever op met verbeelding dan met stilte. Zo geven ze een gevoel van orde in de chaos. Maar zodra we ophouden met vragen stellen en fact checken, verandert die houvast in misleiding. In beide gevallen geldt dat de verzinsels op zichzelf niet het grootste gevaar zijn, maar dat dit gevaar schuilt in hoe we ermee omgaan: ons vertrouwen erin, ons groeiende onvermogen waarheid en fantasie van elkaar te onderscheiden, en in het volgen van de kaart zonder te beseffen dat die net zo goed uit verzinsels kan bestaan. Daarom moeten we weigeren genoegen te nemen met wat overtuigend oogt, en steeds opnieuw dieper kijken om te ontdekken wat werkelijk klopt. Dat hebben oceanen gemeen met technologische ontwikkelingen: er is nog heel veel te ontdekken.