CARMA laat zien dat algoritmes ook schade kunnen voorkómen

De discussie over algoritmes en AI is vaak defensief. Ze zijn ondoorzichtig, discriminerend, juridisch riskant of simpelweg “te ver doorgeschoten”. Begrijpelijk, want de voorbeelden waar het misgaat zijn talrijk. Maar juist daarom is het verfrissend om een praktijkcase tegen te komen waarin een algoritme niet het probleem is, maar onderdeel van de oplossing.

Bij MyWheels ontstond een herkenbaar vraagstuk. Ondanks bestaande maatregelen veroorzaakte een kleine groep gebruikers disproportioneel veel schade door excessief rijgedrag. Ingrijpen gebeurde vaak pas achteraf, als de schade al was ontstaan. Niet alleen kostbaar, maar ook onbevredigend vanuit risicobeheersing en gebruikersvertrouwen.

In plaats van nóg meer regels of handmatige controles werd gekozen voor iets anders: een gericht algoritme met een helder doel. CARMA.

Van incidentgedreven ingrijpen naar voorspellende beheersing

CARMA — Car Misuse Algorithm — doet in essentie iets wat veel organisaties nastreven, maar zelden goed uitvoeren: het signaleert risico’s vóórdat ze tot schade leiden. Op basis van objectieve rijgedragssignalen en vaste drempelwaardes herkent het patronen die wijzen op verhoogd risico. Dat leidt tot een risicoscore, geen automatisch oordeel.

Het verschil zit niet in de techniek alleen, maar in de ontwerpkeuze. CARMA is geen allesbeslissende black box, maar een vroegtijdig waarschuwingsmechanisme. Daarmee verschuift de organisatie van reactief naar preventief handelen. Dat is precies waar data-analyse en algoritmes hun grootste waarde hebben.

Mens-in-de-loop is geen zwakte, maar een kracht

Een cruciaal element is dat elke vervolgstap handmatig wordt beoordeeld. Een medewerker bepaalt of een waarschuwing passend is, of dat er geen actie nodig is. Daarmee blijft het menselijk oordeel expliciet onderdeel van het proces.

Dit is geen concessie aan techniek, maar een bewuste governance-keuze. Juridisch voorkomt het dat sprake is van volledig geautomatiseerde besluitvorming onder de AVG. Organisatorisch vergroot het het draagvlak. En inhoudelijk zorgt het ervoor dat context, proportionaliteit en redelijkheid meewegen.

In veel AI-discussies wordt mens-in-de-loop gepresenteerd als rem op schaalbaarheid. CARMA laat zien dat het juist de sleutel is tot verantwoord opschalen.

Transparantie als ontwerpprincipe, niet als bijsluiter

Wat opvalt is hoe expliciet MyWheels communiceert over het gebruik van CARMA. Niet pas als iemand bezwaar maakt, maar vooraf. Gebruikers krijgen inzicht in wat wordt gemonitord, waarom dat gebeurt en wat de mogelijke gevolgen zijn. Inzage in events, bezwaar en herbeoordeling zijn standaard onderdeel van het proces.

Dit is transparantie zoals toezichthouders het bedoelen, maar zelden zo consequent wordt toegepast. Geen academische uitleg over algoritmes, maar begrijpelijke toelichting over wat het betekent voor de gebruiker. Vertrouwen ontstaat hier niet door beloftes, maar door ontwerpkeuzes.

DPIA en AI Act: van compliance-last naar ontwerpkader

CARMA is getoetst via een DPIA en expliciet geplaatst binnen de kaders van de AVG en de AI Act. Interessant is dat dit niet wordt gepresenteerd als vinklijstje achteraf, maar als onderdeel van het ontwerp.

Dat is een belangrijke les voor veel organisaties. Governance werkt alleen als ze vóór de bouw wordt meegenomen. Wie DPIA’s en AI-wetgeving pas achteraf toepast, loopt vast in reparatie en rechtvaardiging. Wie ze gebruikt als ontwerpkader, bouwt systemen die effectiever én verdedigbaar zijn.

Wat andere sectoren hiervan kunnen leren

Deze case is breder relevant dan deelmobiliteit. Het patroon is herkenbaar in financiële processen, fraudepreventie, declaratiestromen, zorg, retail en zelfs accountancy. Overal waar gedrag leidt tot risico’s en schade, ligt dezelfde vraag: signaleren we pas als het misgaat, of durven we vooruit te kijken?

CARMA is in feite een vorm van continuous monitoring, met duidelijke grenzen, menselijk oordeel en transparantie. Dat maakt het interessant voor auditors, controllers en bestuurders die worstelen met de inzet van data en AI zonder het vertrouwen te verliezen.

De echte les

De belangrijkste les van CARMA is misschien wel deze: algoritmes zijn zelden het probleem. Slecht ontworpen algoritmes wel.

Doelgerichtheid, uitlegbaarheid, menselijk oordeel en governance maken het verschil tussen schade veroorzaken en schade voorkomen.

In een tijd waarin AI vaak wordt ingezet omdat het kan, laat deze case zien hoe krachtig het is als je eerst scherp definieert waarom je het doet — en voor wie.

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties