AI-taalmodellen kunnen flink worden verbeterd qua efficiency. Dat blijkt uit de lancering van het nieuwste AI-model vanuit China. Maar is het ook veilig?
De Chinese startup DeepSeek heeft een AI-taalmodel uitgebracht die qua prestaties niet onderdoet voor de populaire Amerikaanse concurrenten zoals ChatGPT van OpenAI, Claude van Anthropic en Gemini van Google. Het grote verschil zit hem in de prijs. Het R1-model van DeepSeek is gratis te gebruiken, terwijl de Amerikaanse modellen tussen de 20 en 200 euro per maand kosten. Dit zorgt voor een schokgolf in de AI-wereld, melden NRC en FD.
DeepSeek
DeepSeek is opgericht in 2023 door hedgefondsmanager Liang Wenfeng. Het bedrijf heeft het model R1 uitgebracht met een wetenschappelijk paper over hoe het is gebouwd. Het model is open source, waardoor iedereen het gratis kan downloaden en gebruiken. In de paper claimt DeepSeek het model te hebben gebouwd op oude processoren èn voor een fractie van de kosten van de Amerikaanse modellen.
Minder energie
Het model van DeepSeek kost minder rekenkracht, zegt hoogleraar AI Maarten de Rijke van de Universiteit van Amsterdam. “Het bestaat uit een groot aantal kleine modellen die samenwerken als dat nodig is. Als een klein aantal kleine modellen een probleem kunnen oplossen blijven de andere modellen inactief. Die aanpak bespaart energie en maakt het updaten eenvoudiger en goedkoper,” zegt De Rijke in het FD.
Veiligheid
Hoe staat het met de veiligheid? Cyberexperts waarschuwen dat gegevens van gebruikers kunnen worden gebruikt door China. DeepSeek bewaart gebruikersdata op ‘veilige servers in China’, maar voor EU-burgers is die bescherming onvoldoende, zegt privacy-advocaat Dafne de Boer van advocatenkantoor Dirkzwager. Voor het Nederlandse cybersecuritybedrijf Eye Security is dit reden om medewerkers te verbieden om DeepSeek te gebruiken, aldus het FD.
Spionagetool
Adviseur technologiebeleid Ellen Mok vindt het lastig om te geloven dat het Chinese AI-model is ontstaan zoals DeepSeek wil doen geloven. “Het doet denken aan propaganda vanuit China. Het model zou ook een spionage-tool kunnen zijn,” zei Mok vorige week tijdens een webinar over AI (video), georganiseerd door de vereniging van Nederlandse vrouwelijke artsen. Mok werkte als adviseur cyber security bij het ministerie van Binnenlandse Zaken. Ze verdenkt niet alleen China, maar ook Rusland en de VS van de inzet van technologie voor politieke doeleinden.
Trojaans paard
Bob Ballings, expert in de productie en ontwikkeling van wasbare matten en volgens eigen zeggen de eerste Nederlandse promptoloog, waarschuwt op LinkedIn voor het ‘gratis AI-model uit China’ van DeepSeek. Hij vergelijkt het met een ‘slim uitgedacht Trojaans paard’. “Gebruikers denken dat ze zich geen zorgen hoeven te maken over hun privacy, omdat het ‘open source’ software is dat ze lokaal kunnen draaien. Maar slimme experts ontdekten dat het ook in de lokale versie fouten maakt die typisch zijn voor Chinese achterdeurtjes. Deze fouten zitten dan ook in jouw code. Het model gebruikt al je data zonder opt-out. Denk daar eens over na.”
Is het veilig of niet? (update)
Hoe veilig is deze Chinese versie van ChatGPT? Stefan Leijnen, lector AI bij de Hogeschool Utrecht, zegt op LinkedIn: “De eerste onderzoeken door Europese dataprivacy-waakhonden zijn al gestart. Hoe veilig het echt is, gaan we binnenkort vanzelf merken. Ik raad af om persoonlijke en andere gevoelige data te delen, en dat geldt net zo goed voor de Amerikaanse taalmodellen. Maar zolang je je bewust bent van de risico’s zou ik iedereen aanraden om juist veel met dit soort nieuwe innovaties te experimenteren en daarvan te leren wat wel en niet voor je werkt.”
Lees het wetenschappelijk paper van DeepSeek
Bronnen:
Chinese start-up zet AI-wereld op zijn kop met gratis concurrerend model – FD
Chinees ‘AI-wonder’ DeepSeek schokt de techsector – NRC
AI-bommetje DeepSeek mogelijk een zegen voor Europa: ‘rekenkracht blijkt niet bepalend’ – FD
Bron foto: The Alarming Reality of Self-Replicating AI: A Critical Turning Point | LinkedIn