De Nationale AI Vertrouwensmonitor schetst een opvallend maar inmiddels herkenbaar beeld: Nederland gebruikt AI steeds vaker, maar vertrouwt het steeds minder. Waar de technologie met ongekende snelheid wordt uitgerold in klantenservice, bedrijfsprocessen en besluitvorming, blijft het vertrouwen hangen rond een krappe voldoende. De verwondering van vorig jaar heeft plaatsgemaakt voor voorzichtigheid. De hype is voorbij, de realiteit dringt door. En die realiteit laat een paradox zien: hoe meer AI we gebruiken, hoe minder zeker we ervan lijken te zijn.
Het meest in het oog springt de groeiende kloof tussen adoptie en vertrouwen. Mensen gebruiken steeds meer AI-gedreven toepassingen, maar een grote meerderheid twijfelt aan de betrouwbaarheid, de veiligheid en de juistheid van de uitkomsten. Minder dan vier op de tien mensen vertrouwt erop dat AI daadwerkelijk het juiste antwoord geeft. Tegelijkertijd maakt bijna negentig procent zich zorgen over nepinformatie en onzichtbare datastromen. De brede inzet van AI voedt dus niet vanzelf het vertrouwen. Integendeel: de praktijk laat zien dat gebruik en vertrouwen twee heel verschillende trajecten zijn, die zich inmiddels in tegengestelde richtingen lijken te bewegen.
Een opvallende les uit de monitor is dat de afname in vertrouwen niet primair voortkomt uit wat AI kan of niet kan, maar vooral uit hoe AI wordt gepresenteerd. Bedrijven overschatten hun volwassenheid, oversellen mogelijkheden en downplayen risico’s. De marketing loopt ver vooruit op de transparantie. Voor veel gebruikers blijft AI een black box, en zolang die box niet open kan, wordt vertrouwen vervangen door voorzichtigheid. De ironie is dat de techniek zelf beter wordt, maar het draagvlak slechter. Wantrouwen ontstaat niet door algoritmes, maar door onduidelijke communicatie en het ontbreken van echte uitleg.
Interessant is dat de meeste Nederlanders willen dat de mens altijd het laatste woord houdt bij belangrijke beslissingen. Dat wordt vaak gelezen als wantrouwen richting technologie, maar feitelijk is het precies hoe een volwassen AI-samenleving zou moeten functioneren. AI is bedoeld om te ondersteunen, niet om te bepalen. De beste toepassingen van de komende jaren zullen hybride zijn: algoritmes die razendsnel patronen herkennen en scenario’s doorrekenen, gecombineerd met menselijke interpretatie, nuance en waarde-afweging. Niet als noodrem, maar als integraal onderdeel van de governance.
Vertrouwen in AI herstelt niet vanzelf. Het vraagt om volwassenheid van organisaties die AI ontwikkelen en implementeren. Transparantie moet het uitgangspunt worden, niet het sluitstuk. Gebruikers moeten weten welke data een model gebruikt, welke aannames eronder liggen en welke fouten het kan maken. Daarnaast vraagt het om discipline: niet elk prototype hoort in productie, en niet elk algoritme is geschikt voor beslissingen die mensen direct raken. En misschien het meest fundamenteel: AI moet uitlegger worden in plaats van mysterie. Begrijpbaarheid is de ultieme basis van vertrouwen.
De huidige vertrouwenskloof is geen technisch probleem, maar een governanceprobleem. En governance kun je wél repareren. We zitten in de fase waarin organisaties moeten laten zien dat ze AI niet alleen integraal, maar ook verantwoord kunnen inzetten. De hypejaren liggen achter ons; de volwassenheidsjaren dienen zich aan. Als bedrijven transparant worden over datagebruik, duidelijke grenzen stellen aan autonomie, en gebruikers actief meenemen in hoe beslissingen door AI tot stand komen, kan het vertrouwen sneller herstellen dan de monitor nu suggereert.
Het debat over AI gaat al lang niet meer over mogelijkheden. Het gaat over geloofwaardigheid. Over de vraag of organisaties bereid zijn verantwoordelijkheid te nemen voor iets dat niet volledig voorspelbaar is. Het vertrouwen in AI brokkelt af — maar dat is geen eindpunt. Het is een signaal. Een uitnodiging om AI eindelijk te behandelen zoals het bedoeld was: als hulpmiddel dat we moeten begrijpen, beheersen en uitleggen. Dáár ligt de weg vooruit.