‘AI gaat zo snel dat controle nodig is’

Kunstmatige intelligentie (AI) biedt kansen, maar geef de technologie geen vrij baan. Dat zegt Bart van der Sloot, universitair docent aan de Universiteit van Tilburg. Hij adviseert om de wetgeving voor AI verder uit te werken. ‘De overheid is nu te afwachtend.’

Tekst: Norbert Cuiper

De ontwikkeling van AI is niet meer te stoppen, zegt Bart van der Sloot. “AI gaat niet meer weg,” zegt de universitair docent recht, maatschappij en techniek aan de Tilburg Universiteit. Hij wijst op de huidige digitale producten die zijn behept met AI-technologie, zoals AI-camera’s die foto’s optimaliseren. Binnen de muziekwereld is AI bezig met een opmars, en robots zijn tegenwoordig zo geavanceerd dat ze sommige taken van mensen kunnen overnemen. “Vergeleken met de eerste knullige AI-modellen uit 2017 gaat de ontwikkeling heel snel,” zegt Van der Sloot.

Van der Sloot kijkt naar de technologische ontwikkeling en het effect op de samenleving, en hoe het recht kan helpen om de samenleving bij te sturen. Hij werkte voor de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) en schreef rapporten over diverse onderwerpen, zoals big data, drones en gezichtsherkenning. “Elke keer is het de vraag wat voor samenleving we willen en hoe we ervoor kunnen zorgen dat de technologie de goede kant wordt opgestuurd.”

“AI ontwikkelt zich zodanig snel, dat de content die het maakt nauwelijks meer van echt is te onderscheiden. Ook wordt veel AI-content deel van onze werkelijkheid. Dat levert een nieuw soort samenleving op,” zegt Van der Sloot. Hij noemt dat de ‘synthetische samenleving’, waarbij de fysieke werkelijkheid en de content afkomstig van AI zo gemengd zijn dat ze niet meer zijn te ontwarren. In zijn boek ‘Regulating the Synthetic Society’ schrijft hij over generatieve AI, dat zelf content kan produceren of met robots handelingen of spraak kan genereren.

Een snelle ontwikkeling van AI brengt ook risico’s met zich mee, schrijf je in je boek. Wil je ons hiervoor waarschuwen?

“Ik ben er niet om te waarschuwen, maar als deze ontwikkeling zo doorgaat komen er een aantal maatschappelijke waarden flink onder druk te staan. Als we die waarden willen behouden zullen we iets moeten doen om de technologie aan banden te leggen, of voorwaarden te stellen. Eén van de fundamentele waarden is de werkelijkheid in een democratie. Als je niet meer weet wat waar is, zoals met fake nieuws, wordt het politiek proces beïnvloed. Zo kunnen er vlak voor verkiezingen deepfakes van politieke tegenstanders worden gemaakt. Dat gebeurt nu al.”

Welke maatschappelijke waarden zijn nog meer in het geding?

“Een ander voorbeeld van een fundamentele waarde die onder druk komt te staan is de rechterlijke macht. Die zit nu al in zijn maag met gemanipuleerde content, terwijl het bewijs authentiek en echt moet zijn. De voorspelling is dat over een paar jaar negentig procent van alle digitale content door AI is gegenereerd of gemanipuleerd. Dat kunnen hele kleine manipulaties zijn, maar dat kan heel wezenlijk uitmaken. Denk aan het egaliseren van de huid op foto’s. Dat maakt het online werken voor dermatologen lastig.”

“Ditzelfde geldt ook voor de media: die staat voor ware en authentieke content, door mensen gemaakt, maar hoe ga je dat controleren? Dat weet je eigenlijk niet meer. Ook met persoonlijke communicatie, zoals dit interview: ik neem nu nog maar aan dat ik hier tegenover een journalist zit, en dat er geen andere belangen hier zitten, maar je weet het niet zeker. Het komt al best vaak voor dat een CEO lijkt te bellen naar een werknemer en vraagt om geld over te maken. Of een kind die belt en vertelt dat de telefoon is gestolen, om daarna te vragen 50 euro over te maken.”

Dat zijn herkenbare oplichterspraktijken.

“Ja, maar er zijn mensen die hierin trappen, of die fake nieuws voor waar aannemen. Uit onderzoek blijkt dat deze mensen de werkelijkheid gaan wantrouwen. Die gaan bij echt nieuws of echt persoonlijk contact twijfelen aan het waarheidsgehalte. Hierdoor ontstaat een soort epistemologisch wantrouwen, wat kan leiden tot een reality-fatigue, zo van: ‘het zal allemaal wel, ik ben klaar met het afvragen of dit waar is. Ik ga in mijn eigen wereld geloven’. Dan kom je in een post-true tijdperk, waarin mensen onverschillig zijn over of iets waar is of niet.”

Trekken mensen zich dan terug in hun eigen bubbel?

“Ja. Dat is het centrale thema dat mij boeit.”

Zijn er ook andere vragen die je in je boek aanstipt?

“Ja, zoals: stel dat AI-robots heel intelligent worden en gevoelens krijgen? Moet je die dan ook niet een morele status of rechten toekennen?”

“Een ander onderwerp is dat veel van de AI-oplossingen erop gericht zijn om frictie weg te nemen. Als je in het buitenland zit vertalen ze woorden voor je of fungeren ze als reisgids. Ze kunnen je overleden partner weer tot leven wekken, je kan je eigen nieuwsjournaal maken. Alles om je maar niet te confronteren met frictie of ongemak, met het feit dat je partner is overleden, met het feit dat er andere meningen zijn of dat je standpunt over de werkelijkheid niet klopt, dat je de moeite moet doen om een andere taal te leren, dat studenten zelf een essay moeten schrijven en dat niet door ChatGPT laten doen.”

Het is heel aantrekkelijk om dat wel te doen.

“Ja, want frictie en ongemak is lastig, maar door frictie leren we wel. Het leerproces is de reden dat studenten een essay moeten schrijven. Het feit dat je partner is overleden is heel naar, en het is ook goed om daar een tijdje niet aan te denken, of om tijdelijk in een droomwereld te leven, maar uiteindelijk moet je toch de confrontatie aangaan, waardoor je ook weer groeit. Dat kinderen worden gepest op school is ook heel naar, maar er zijn ook mensen die zich daardoor helemaal terugtrekken in een soort virtual reality.”

Dat gaat wel ver.

“Ja. Er zijn zelfs mannen die met liefdesrobots willen trouwen, omdat de liefdesrobot altijd zin heeft in seks en ook nog het huishouden doet, kookt en geen frictie veroorzaakt. Dat is intuïtief heel aantrekkelijk, maar je groeit ook door om te gaan met een partner die een eigen wil heeft of je wijst op iets heel pijnlijks in jezelf. Deze technieken zijn erop gericht om frictie weg te nemen, waardoor je steeds minder leert als mens. Dat is een grote zorg die ik aanstip in mijn boek.”

Bart van der Sloot, universitair docent recht, maatschappij en techniek (foto Tilburg University)


Wat vind je van de Europese AI-wet zoals die is goedgekeurd door het Europees Parlement?

“We moeten nog kijken hoe deze wet vorm krijgt, want de versie die is goedgekeurd door het Europees Parlement is nog niet af. Maar ik vind het een prima eerste aanzet. Er staan procedurele regels in, zoals maak risico-inschattingen, leg vast welke data je gebruikt, maak het controleerbaar, zorg dat er menselijk toezicht is. Dat zijn allemaal goede, plausibele basisregels. Regels waarvan je hoopt dat ze niet nodig zijn, maar juist daarom is het goed dat ze er in staan.”

Ontbreekt er nog iets aan de wet? Wat vind jij?

“De vraag is het of dit de enige AI-wet wordt. De naam suggereert dat wel. Het is begonnen als een AI-safety Act, waarin eisen staan waaraan je moet voldoen als je AI produceert. Later zijn meer inhoudelijke regels of verboden in de wet gefietst, maar daarin blijft het erg zwak. Deze wet, of een andere wet, zal daar meer aan moeten doen. Er is een lijstje met toepassingen die verboden of high-risk zijn, maar dat is minimaal, en er zijn heel veel uitzonderingen voor.”

Kan je een voorbeeld noemen waarin de AI-wet tekort schiet?

“Een voorbeeld is voice cloning. Dat is zo makkelijk te maken en kan zoveel schade aanrichten. Onlangs riep de Robocall van de Amerikaanse president Joe Biden kiezers op niet te gaan stemmen. Gezien de potentiële schade lijkt het gerechtvaardigd om daarvoor ook specifieke regels op te stellen.”

Lees Chatbots adviseerden voor fictieve politieke campagnes

“Een ander voorbeeld zijn deepfakes, waarvan naar schatting zo’n 90 procent gaat om deepfake porno met vrouwen. Dat kan ontzettend veel schade aanrichten bij vrouwen, met name bij jonge opgroeiende meisjes. Moet je dat soort apps niet gewoon verbieden?”

Wat doet de AI-wet tegen deepfakes?

“Weinig. In de huidige versie van de AI-wet staat dat je in de metadata moet melden dat het om een deepfake gaat. Dat helpt social mediaplatforms zoals Facebook en Youtube om deepfakes te herkennen. Maar daar win je de oorlog niet mee. Veel mensen gaan die meta-data niet invoeren, en als gebruiker zie je dat niet. Bovendien zijn deepfakes niet per sé verboden. Social mediaplatforms moeten dit zelf controleren. Er zijn ook onschuldige deepfakes, zoals een satirisch filmpje met Mark Rutte en Siegried Kaag op Tempation Island, of Queen Elizabeth die een alternatieve kersttoespraak houdt. Dat is geestig en grappig, dat moet je niet verbieden.”

Biedt de AI-wet nog veel ruimte?

“Ja, de bepalingen in de AI-wet zijn nog tamelijk abstract en vaag. De wet moet nog worden aangescherpt, of er moet een andere wet komen. Omdat het gaat via de Europese Unie zouden nationale parlementen hiermee aan de slag moeten, maar ze kunnen dit ook bij de EU laten liggen. Het kabinet heeft nu een overheidsbrede visie over AI geschreven. Dat is een heel mooi document waarin veel staat, maar over de wetgeving is de overheid afwachtend. Daar ligt mijn vrees, dat moet nog wel worden ingevuld. Voor een echte AI-wet is meer uitwerking nodig, en ook meer inhoudelijk in plaats van de procedurele aanpak die nu wordt gekozen.”

Je stelt voor om inhoudelijke wettelijke eisen aan AI-systemen te stellen. Wat bedoel je dan?

“Dat AI-systemen veilig zijn, dat ze controleerbaar zijn, dat de uitkomsten transparant zijn, en dat fouten worden gerapporteerd. Dat AI-systemen van de markt worden gehaald als er hoge risico’s zijn. Dat soort zaken.”

Kan je zeggen dat de Europese AI-wet een positief effect heeft op de bewustwording van managers ten aanzien van AI?

“Ja, dat denk ik wel. Dat de Europese Unie überhaupt bezig is met AI, maakt dat mensen denken dat het een belangrijke techniek gaat worden. Ook is het goed te horen dat er regels voor komen. Het is niet zoals bij het internet en sociale media, waarbij de ontwikkelingen vrij baan kregen. Hier zit de wetgever wel bovenop, dat is zo’n beetje het signaal. Dit zorgt er ook voor dat er een industrie op gang komt die zich bezig gaan houden met controles, net zoals dat is gebeurd voor de GDPR, de verordening voor dataprivacy en beveiliging. Ik verwacht dat er op dit gebied accountancybedrijven komen die checks uitvoeren, dat er assessments komen voor databescherming en privacy officers. Dat zal je ook krijgen bij het AI-veld, en dat is ook goed.”

Dus AI schept ook werkgelegenheid? Dat is een ander geluid, waarbij AI banen zou kosten.

“AI kost geen banen, maar het werk verandert wel. Die nieuwe banen zit veel meer op het controleren van AI, en AI zal vermoedelijk een deel van het werk kunnen overnemen dat we nu nog zelf uitvoeren. Om je een voorbeeld te geven: ik heb mijn boek ingevoerd in ChatGPT en daarna de tool tien vragen op laten stellen over het boek. Dat doet ChatGPT in twintig seconden, en dat waren prima vragen. Dus het gaat al best snel, met wat ChatGPT kan.”

Hoe zouden accountancybedrijven kunnen omgaan met AI? Heb je daar een visie op?

“Ik denk dat accountancybedrijven deels worden ingezet op controle en rapportage. Maar dan moet je goed onder de motorkap kunnen kijken, om een AI-systeem goed te kunnen begrijpen. Dat vergt wel een inspanning van accountants. Je kan dit niet even oplossen met een weekje training. Je moet daar echt heel gedegen kennis van hebben, van hoe AI-systemen werken. Je zal deels een verandering krijgen in het personeel dat dit soort systemen gaat controleren.”

Zijn hiervoor specifieke opleidingen nodig?

“Ja, dat denk ik wel, en ook een permanente opleiding. Je kan dit niet eenmalig doen, je zou elk half jaar of elk jaar een stevige opfriscursus moeten hebben om te goed te volgen.”

Ook dat schept weer werkgelegenheid.

“Zeker, en dat is ook goed. De wereld verandert ook steeds, waardoor we nieuwe banen creëren die daarbij passen.”

Accountants zelf moeten ook meer innoveren met AI, wordt gezegd. Hoe zie je dat voor je?

“Ik weet dat veel accountants bezig zijn met de ontwikkeling van diverse tools. Ik ben daar huiverig voor, omdat accountants niet vaak goed weten wat er onder de motorkap gebeurt. De uitkomsten die AI genereert bevatten vaak fouten, als de data waarop ze zijn gebaseerd afwijken. AI-systemen hallucineren, verzinnen dingen, maken fouten. Als je niet goed snapt hoe zo’n systeem werkt kan je dat er niet uithalen. AI geeft een soort waarschijnlijkheidsvoorspelling, dus ze herhalen een consensus-mening over de wereld en zaken.”

Wat betekent dit voor de accountant?

“Als accountant moet je ook die afwijkingen scherp voor ogen hebben, en andere verklaringen nagaan. Al dat soort dingen kun je niet zomaar door AI laten doen. Je kan AI wel inzetten, maar alleen als je weet hoe dat werkt en wat voor type uitkomsten dat geeft, want dan kan je het ook goed controleren. Je kan best standaard processen initieel door AI laten doen, maar dat levert een initieel antwoord op. Als dit klakkeloos wordt overgenomen, bijvoorbeeld doordat de accountant het druk heeft, kan dat ontsporen. Dat is echt een gevaar. Daarom ben ik huiverig.”

Zou je ook toezicht moeten hebben op accountants die AI gebruiken?

“Ja, dat zou logisch zijn. Als accountants als toezichthouder ook AI gaan inzetten, moet je daar ook toezicht op houden. En het liefst door een andere partij dan de accountants. Het zou een publieke organisatie kunnen zijn. Bij de Autoriteit Persoonsgegevens bestaat de algoritme-waakhond. Die zou de accountants als toezichthouder van de private sector kunnen controleren.”

Bekijk de website van Bart van der Sloot

Boek van Bart van der Sloot (foto Bloomsbury)

Download zijn boek ‘Regulating the Synthetic Society’

 

Bekijk artikelen over AI in de accountancy

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties