Een $1,5 miljard settlement van Anthropic markeert misschien wel het einde van een tijdperk. Jarenlang konden AI-bedrijven hun modellen trainen op alles wat ze konden vinden online: blogs, fora, nieuwsartikelen en zelfs complete boeken die via piratensites circuleerden. Die tijd lijkt voorbij.
Het Amerikaanse bedrijf Anthropic, ontwikkelaar van Claude AI, moest recent een astronomisch bedrag betalen in een copyrightzaak. De kern van de zaak: het gebruik van illegaal verkregen boeken van platforms als Library Genesis. Het vonnis is duidelijk: je kunt geen business bouwen op gestolen content, hoe briljant je transformaties ook zijn.
De uitspraak heeft een enorme precedentwerking. Waar AI-bedrijven lange tijd opereerden in een soort juridische schemerzone, wordt nu een harde lijn getrokken: fair use kan sommige vormen van training beschermen, maar het opslaan van pirated content is ‘inherently, irredeemably infringing’. Met andere woorden: het is fundamenteel in strijd met de wet. Daarmee komt een tijdperk van gratis training tot een einde. Grote taalmodellen (LLM’s) zullen in de toekomst moeten worden gevoed met datasets die netjes zijn gelicentieerd of ingekocht. Dat betekent hogere kosten, die uiteindelijk zullen doorwerken in de tarieven die gebruikers betalen.
De situatie doet sterk denken aan de muziekindustrie begin jaren 2000. Napster maakte het mogelijk om gratis muziek te downloaden en te delen, maar de rechtszaken van artiesten en labels maakten duidelijk dat dit niet houdbaar was. De oplossing kwam in de vorm van legitieme platforms als Spotify en Apple Music, die via licenties en royalty’s een duurzaam model wisten te bouwen. AI bevindt zich nu op een vergelijkbaar kantelpunt: van wilde westen naar gereguleerde, betaalde toegang. Het verschil? De schaal en impact zijn vele malen groter. Waar het bij muziek ging om miljarden, gaat het bij AI om triljoenen dollars aan potentiële waardecreatie.
Dat de schikking $1,5 miljard bedroeg, is op zichzelf al een wake-up call. Maar nog belangrijker: de rechter gaf aan dat de schade in theorie had kunnen oplopen tot $1 biljoen. Dat bedrag had Anthropic compleet kunnen vernietigen. Het laat zien hoe groot de belangen zijn. AI is geen speeltje meer, maar een volwassen industrie die aan dezelfde juridische en economische spelregels moet voldoen als elke andere sector. Daarmee komt er meer druk op bedrijven om hun data- en AI-strategie juridisch goed te borgen.
Wat betekent dit nu concreet voor ondernemers, controllers en financials die AI inzetten? In de eerste plaats dat de businesscase van AI waarschijnlijk verandert. De huidige prijzen van tools als ChatGPT, Claude of Copilot zijn nog relatief laag, maar als bedrijven straks miljarden moeten investeren in legitieme data, zullen die kosten worden doorberekend. Het is dus verstandig om in scenario’s te denken: wat als de kosten van LLM’s de komende jaren verdubbelen of verdrievoudigen? Kun je dan nog steeds dezelfde efficiency- en innovatievoordelen behalen? Daarnaast is er een juridisch risico. Als jouw organisatie AI inzet die is getraind op dubieuze data, kan dat leiden tot aansprakelijkheidskwesties. Compliance, legal en finance moeten dus samen optrekken bij de implementatie van AI.
De zaak rond Anthropic en de lopende procedures tegen Midjourney (waar Warner Bros klaagt over eindeloze kopieën van Superman en Batman) maken duidelijk dat de hypefase voorbij is. AI gaat niet alleen over innovatie en mogelijkheden, maar ook over juridische kaders, ethiek en harde euro’s. Het ‘gratis meeliften’ op andermans werk is geen houdbare strategie. De sector moet volwassen worden en eigen modellen ontwikkelen die gebaseerd zijn op samenwerking, licenties en fair play.
Voor lezers van TheDataConnection is dit hét moment om kritisch naar hun eigen AI-strategie te kijken. Hoeveel vertrouwen heb je in de datasets waarop jouw AI-tools draaien? En ben je voorbereid op de mogelijkheid dat de kosten voor AI significant gaan stijgen? Net zoals muziekconsumenten uiteindelijk gewend raakten aan een abonnement bij Spotify, zullen bedrijven moeten wennen aan het idee dat AI een betaalde, gereguleerde dienst wordt. De vraag is niet óf dit gebeurt, maar hoe snel. Dus: hoe houd jij in jouw organisatie rekening met stijgende AI-kosten en juridische risico’s?