Gemeente Rotterdam is twee keer in de fout gegaan met het gebruik van discriminerende algoritmes. De gemeenteraad moet zich uitspreken over een beleidskader voor verdere ontwikkeling van algoritmes en AI.
Kunstmatige intelligentie (AI) kan gemeenten helpen bij een efficiëntere bedrijfsvoering en betere dienstverlening, maar er kleven ook ethische risico’s aan. Gemeente Rotterdam heeft laten zien hoe het niet moet, meldt Gemeente.nu. Rotterdam is dit jaar voor de tweede keer door de eigen Rekenkamer op de vingers getikt voor onethisch gebruik van algoritmes. De eerste keer was de Rekenkamer Rotterdam uiterst kritisch, maar nog steeds zijn de algoritmes bij de gemeente risicovol en weinig neutraal, blijkt uit een recent vervolgonderzoek.
Analysetool discrimineerde
Ambtenaren van de gemeente Rotterdam werken op de afdeling Werk & Inkomen met een analysetool, dat onrechtmatige uitkeringen opspoort. Uit het onderzoek blijkt dat deze tool discriminerend kan uitpakken. Het algoritme bevatte variabelen die onbedoeld selecteerden op etniciteit, dat wettelijk verboden is. Om het algoritme te trainen werd alleen gebruik gemaakt van data van uitkeringsontvangers die een heronderzoek ondergingen. Correcter zou zijn geweest data van alle uitkeringsontvangers te gebruiken. Het algoritme is direct buiten werking gesteld.
Algoritme-governance
Ambtenaren beseffen nauwelijks dat er ethische risico’s kleven aan het gebruik van algoritmes, concludeerde de Rekenkamer Rotterdam al in eerder onderzoek. Om dat op te lossen richtte de gemeente een ‘governance-structuur’ in. Op alle niveaus in de organisatie passeert de vraag hoe de gemeente algoritmes toepast en welk doel ze hiermee nastreeft. Bedoeling is aan de voorkant bij de ontwikkeling van systemen af te bakenen wat wel en niet acceptabel is. Niet de ambtenaren, maar de politiek moet zich hierover buigen, vindt de Rekenkamer Rotterdam.
Beleidskader
“De politiek moet een beleidskader vaststellen voor verdere ontwikkeling van AI en algoritmes,” zegt directeur Marjolein van Asselt van de Rekenkamer Rotterdam. Het college heeft echter nog nog geen werk gemaakt van de toezegging om inwoners en relevante doelgroepen bij de ontwikkeling van algoritmen te betrekken, zoals de Autoriteit Persoonsgegevens eist. De gemeente communiceert weinig transparant richting inwoners over de algoritmen die ze inzet, zegt Van Asselt. “De politiek moet kleur bekennen,” zegt ze, verwijzend naar de titel van het rekenkameronderzoek.
Plan van aanpak
De Rotterdamse gemeenteraad drong bij verantwoordelijk wethouder Maarten Struijvenberg aan op een plan van aanpak voor het algoritmebeleidskader. Hij is met een voorstel met uitgangspunten en randvoorwaarden gekomen. Het voorstel wordt op 24 oktober 2024 tijdens een commissievergadering in de raad besproken.
Download het vervolgonderzoek ‘Kleur Bekennen’ van Rekenkamer Rotterdam
Lees ook Hoe gebruikt de overheid AI? – TheDataConnection.nl
Bron: Gemeente.nu, 9 oktober 2024
Gemeenten worstelen met ethische risico’s AI – deel 2 – Gemeente.nu