AI voorspelt in Oekraïne 70% van de Russische aanvallen. Zonder menselijke tussenkomst. Welkom in 2025, het jaar waarin oorlog steeds minder mens en steeds meer machine wordt.
We kunnen AI inzetten voor klantinzichten, fraudedetectie en procesautomatisering. Maar ondertussen? Wordt diezelfde technologie gebruikt voor dodelijke precisie, realtime besluitvorming en psychologische oorlogsvoering. Tijd voor een reality check.
Laten we beginnen bij het meest zichtbare front: de drone-oorlog.
In Oekraïne worden dit jaar naar schatting 2,5 miljoen drones geproduceerd. Niet om pakketjes te bezorgen, maar om zelf doelen op te sporen en te vernietigen. AI-gestuurd. Zonder piloot. Zonder twijfel.
De technologie achter deze drones herkent patronen, selecteert doelwitten en voert zelfstandig aanvallen uit. Klinkt als sciencefiction? Is het niet. Het is de nieuwe realiteit van oorlog, en Oekraïne is het Silicon Valley van de slagvelden geworden.
Israël doet er nog een schepje bovenop met systemen als *Gospel* en *Lavender*. Die markeren per dag duizenden gebouwen en mensen als doelwit, gebaseerd op gedragsdata, locatie, profiel en andere variabelen die wij “onduidelijk” zouden noemen – maar het algoritme niet. Als mensheid mogen we ons inmiddels afvragen of dat algoritme niet is ontspoort.
Het is doelwitselectie op snelheid. En op schaal. Menselijke tussenkomst? Nauwelijks.
Wat de AVG daarvan vindt, is onbekend. Wat de wereld er inmiddesl van vindt?
Niet alleen drones en doelen worden gestuurd door AI. Ook het commandoniveau verschuift.
AI-gedreven inlichtingenplatforms analyseren satellietbeelden, onderscheppen communicatie en combineren dat razendsnel tot een militair advies. Denk: ChatGPT, maar dan voor het plannen van een tegenaanval.
Oekraïne gebruikt hiervoor commerciële tools van Palantir, terwijl de VS en NAVO inzetten op in-house platforms, waaronder DARPA’s dronezwermen. India heeft inmiddels een volledig AI-aangestuurd luchtverdedigingssysteem (Akashteer) operationeel. En China? Die ontwikkelt AI voor cyberoorlog, propaganda en deepfake-operaties op schaal.
En dan de vraag die iedereen blijft ontwijken: wie is verantwoordelijk als een AI-systeem een fout maakt? Als een algoritme burgers treft in plaats van militairen?
VN-verdragen worden opgesteld. Er zijn hoorzittingen, commissies, taskforces. Maar op het slagveld is snelheid belangrijker dan moraliteit.
In 2025 is er geen pauzeknop voor machinebesluitvorming. Gaza is een absoluut dieptepunt voor de mensheid.
Oekraïne: Drones, AI-targeting, realtime battlefield-analytics
Israël: AI-doelselectie, autonome aanvallen
China: Propaganda-AI, drone-zwermen, cyber-oorlogvoering
VS: AI-piloten, NAVO-drones, predictive command AI
India: Luchtverdediging op basis van AI
Rusland: Drones, deepfakes, AI-camouflage
Terwijl bedrijven worstelen met AI-governance en bias-checks in recruitmenttools, laat het militaire domein zien wat er gebeurt als je snelheid en schaal vooropzet.
In 2025 heeft AI de sprong gemaakt van PowerPoint naar frontlinie.
Oorlog is veranderd. Niet alleen qua wapens, maar ook qua besluitvorming.
Wat betekent dit voor ons? Misschien moeten we niet alleen nadenken over wáár we AI inzetten, maar ook hóe – en met welk moreel kompas.
Volgende week weer een artikel over AI in de zorg, leisuewereld of de retail. Maar dit moesten we toch echt even kwijt.
👉 Blijf scherp via TheDataConnection.nl