Trump versus Ethiek? AI tussen “Evil” en “Good”

Het is een verleidelijk frame. De president die een AI-bedrijf aan de kant schuift. Een technologiebedrijf dat zegt morele grenzen te willen bewaken. Commentatoren die het onmiddellijk inkleuren als een strijd tussen goed en kwaad. Maar zodra een verhaal te comfortabel past in “evil against good”, weet je dat het ingewikkelder ligt.

De beslissing van Donald Trump om federale samenwerking met het AI-bedrijf Anthropic te stoppen, is geen moreel sprookje. Het is een machtsvraagstuk. En precies daarom is het interessant voor bestuurders, CFO’s en toezichthouders.

Anthropic positioneert zich nadrukkelijk als een veiligheidsgerichte bouwer van AI-systemen. Het bedrijf bouwt beperkingen in rond militaire toepassingen en grootschalige surveillance. Daarmee zegt het impliciet: technologie is niet neutraal, en wij als bouwer dragen verantwoordelijkheid voor het gebruik. De Amerikaanse overheid stelt daar iets fundamenteels tegenover. Als de staat technologie contracteert in het belang van nationale veiligheid, dan kan die niet afhankelijk zijn van private morele voorwaarden. De staat moet kunnen bepalen hoe zij haar middelen inzet.

Daar schuurt het. Niet omdat één partij evident “goed” is en de ander “kwaad”, maar omdat hier twee legitieme machtsaanspraken botsen. Een staat heeft het mandaat om veiligheid te waarborgen. Dat mandaat verliest betekenis als leveranciers de grenzen bepalen van wat de staat mag doen. Tegelijkertijd leert de geschiedenis dat onbegrensde technologische macht in handen van overheden zelden zonder risico is. Wie dus reflexmatig partij kiest, doet het vraagstuk tekort.

Wat hier zichtbaar wordt, is dat AI geen gewone software meer is. AI-systemen bevatten normatieve keuzes. Wanneer een model weigert bepaalde toepassingen te ondersteunen of output te genereren, zit daar een morele architectuur onder. Bij traditionele software lag het gebruik grotendeels bij de opdrachtgever. Bij moderne AI verschuift dat. De bouwer bepaalt mede de grenzen. Dat is een fundamentele machtsverschuiving, en machtsverschuivingen verlopen zelden geruisloos.

Voor wie denkt dat dit een Amerikaans incident is: vergis je niet. Dit raakt ook onze praktijk. Stel dat een AI-tool voor fraudedetectie bepaalde datacombinaties weigert te analyseren omdat ze privacygevoelig zijn. Wat doet een CFO die maximale risico-inschatting wil? Wat doet een toezichthouder die worstelt met proportionaliteit? Wie heeft het laatste woord: de leverancier, het bestuur, de wetgever? De casus in Washington maakt zichtbaar wat in Europa subtieler maar onvermijdelijk ook gaat spelen.

Opvallend is bovendien dat een binnenlands AI-bedrijf wordt bestempeld als “supply chain risk”, een kwalificatie die traditioneel werd gebruikt voor buitenlandse technologie met mogelijke geopolitieke afhankelijkheden. Dat begrip wordt nu ingezet tegen een partij die juist restricties inbouwt. Daarmee ontstaat een nieuwe categorie: ethiek als strategisch risico. Wanneer morele begrenzing de inzetbaarheid van technologie beperkt, kan die begrenzing zelf worden geframed als bedreiging.

Het is precies hier dat het goed-tegen-kwaadframe uit elkaar valt. Een staat zonder begrenzing is gevaarlijk. Een private partij die staatsmacht conditioneert is dat óók. De kernvraag is dus niet wie hier moreel superieur is, maar wie de morele architectuur van AI mag bepalen — en op basis van welke legitimiteit.

AI is geen neutrale tool meer. Het is infrastructuur. Het is normstelling. Het is macht. En macht vraagt om volwassen governance. Niet om tweets. Niet om heroïsche zelfpresentatie van techbedrijven. Maar om transparantie over ingebouwde restricties, contractuele helderheid over gebruik, en democratische controle op de grenzen van inzet.

Wie AI reduceert tot een moreel stripverhaal, mist de echte verschuiving. De volwassen fase van AI begint pas wanneer we erkennen dat de strijd niet gaat tussen evil en good, maar tussen verschillende bronnen van legitimiteit. En dat debat moet niet op sociale media worden gevoerd, maar in bestuurskamers en parlementen.

AI is geen bijzaak meer. Het is een machtsvraag. En machtsvragen verdienen meer dan een zwart-witkader.

 

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties