De aankondiging dat Meta experimenteert met gezichtsherkenning in slimme brillen klinkt op het eerste gezicht als een technologisch detail in een lange stroom AI-updates. Toch raakt dit onderwerp aan iets fundamentelers dan een nieuwe gadget of een slimme feature. Het gaat hier niet alleen om een camera in een montuur, maar om de vraag wat er gebeurt wanneer identificatie in de publieke ruimte technisch triviaal wordt. Daarmee verschuift het debat van privacy naar vertrouwen, en van innovatie naar machtsverhoudingen in een data-gedreven samenleving.
Anonimiteit was nooit wettelijk, maar sociaal geregeld
In de publieke ruimte gold altijd een impliciete afspraak. Je mag kijken, observeren, iemand herkennen als je diegene persoonlijk kent. Maar je mag niet automatisch weten wie iemand is, waar die werkt, wat zijn netwerk is of welke digitale sporen hij heeft achtergelaten. Anonimiteit was geen wettelijk gegarandeerd recht in elke situatie, maar vooral een sociaal evenwicht dat rust bracht in het dagelijkse verkeer tussen mensen.
Wanneer slimme brillen gezichten realtime kunnen koppelen aan online profielen, wordt dat evenwicht fundamenteel verstoord. Het verschil tussen zien en weten vervaagt. Waar je vroeger alleen een gezicht zag, zie je straks mogelijk een naam, een functie, gedeelde connecties of zelfs publieke meningen. Dat verandert niet alleen de technologische infrastructuur van de samenleving, maar ook de gedragsnormen. Mensen passen hun gedrag aan zodra zij vermoeden dat zij structureel identificeerbaar zijn.
AI in wearables is een permanente interpretatielaag
We hebben smartphones geaccepteerd, net zoals we camera’s in winkels, stations en straten hebben geaccepteerd. Wat slimme brillen toevoegen, is een continue interpretatielaag over de werkelijkheid. Het gaat niet langer om passieve registratie achteraf, maar om actieve duiding in het moment zelf. Kunstmatige intelligentie analyseert, herkent en classificeert terwijl jij iemand aankijkt.
Dat is een kwalitatieve sprong. Data verschuift van archief naar actie. De wereld wordt niet alleen vastgelegd, maar realtime geïnterpreteerd. Voor professionals in audit, control en governance is dat een herkenbaar patroon. Ook binnen organisaties zien we dat data verschuift van historische rapportage naar realtime sturing. En elke stap richting realtime besluitvorming vergroot de noodzaak van transparantie, controle en duidelijke verantwoordelijkheden.
Europese regulering als reality check
Binnen Europa zal deze ontwikkeling onvermijdelijk botsen met de kaders van de EU AI Act. Gezichtsherkenning in publieke ruimte wordt daar aangemerkt als hoog risico of zelfs als verboden toepassing, afhankelijk van de context. Daarnaast blijft ook de AVG een stevig toetsingskader voor verwerking van biometrische gegevens.
Toch is regelgeving zelden het einde van de discussie. Technologie ontwikkelt zich sneller dan juridische interpretaties zich kunnen stabiliseren. Bovendien creëert technologie verwachtingen. Zodra consumenten gewend raken aan een bepaalde functionaliteit, ontstaat er marktdruk om deze breder beschikbaar te maken. Het echte spanningsveld zit daarom niet alleen in de vraag wat mag, maar ook in de vraag wat maatschappelijk geaccepteerd raakt.
Van dataverzameling naar datamacht
De kern van deze ontwikkeling ligt niet in de camera zelf, maar in de schaal van identificatie. Wanneer gezichten systematisch gekoppeld worden aan databronnen, verandert identiteit in een dataset. Aanwezigheid wordt metadata. Sociale interactie wordt analyseerbaar gedrag.
Dat betekent dat de partij die deze koppelingen beheerst, een ongekende informatievoorsprong opbouwt. Informatievoorsprong vertaalt zich in economische macht, in beïnvloedingskracht en in strategische dominantie. Voor wie zich bezighoudt met AI governance, ketenassurance of data-ethiek is dit geen theoretische exercitie, maar een concrete casus over concentratie van datamacht.
Het echte risico is normalisatie
Het doemscenario wordt vaak geschetst in termen van totale surveillance. Maar de werkelijkheid is meestal subtieler. Het grootste risico is niet dat we morgen in een dystopie wakker worden. Het grootste risico is dat we geleidelijk wennen aan permanente identificeerbaarheid. Dat we ons gedrag aanpassen omdat we aannemen dat iemand ons kan herkennen, vastleggen en analyseren.
Normalisatie is krachtiger dan dwang. Zodra een technologie alledaags wordt, verschuift de sociale norm bijna ongemerkt. En culturele verschuivingen zijn moeilijker terug te draaien dan technische implementaties.
Wat betekent dit voor de data-professional?
Voor ondernemers, data-professionals, auditors en controllers is dit geen ver-van-mijn-bed-show. Het is een voorproefje van wat er gebeurt wanneer de fysieke wereld zelf een datalaag krijgt. Net zoals organisaties bewegen naar ongoing monitoring en realtime dashboards, beweegt de samenleving naar realtime identificatie en interpretatie.
Dat betekent dat governance niet langer achteraf kan plaatsvinden. Controlemechanismen moeten worden ontworpen voordat technologie volledig genormaliseerd is. Transparantie over algoritmes, duidelijke verantwoordelijkheden en toetsbare kaders voor datagebruik worden geen nice-to-have, maar randvoorwaardelijk voor vertrouwen.
Misschien moeten we deze ontwikkeling daarom niet primair framen als een privacykwestie. Het is eerder een governancevraagstuk in een tijdperk waarin AI steeds dichter op de realiteit kruipt. De vraag is niet alleen of het technisch kan of juridisch mag. De vraag is welke spelregels wij als samenleving willen vastleggen voordat identificatie op schaal het nieuwe normaal wordt.
En in een real-time economie geldt hetzelfde principe dat we in de auditwereld steeds scherper voelen: tempo zonder governance is geen innovatie, maar versneld risico.