Techbedrijven zijn niet geïnteresseerd in het onderzoeken van de risico’s van kunstmatige intelligentie, maar juist in het voeden van de hype. Dat schrijft Leon Ingelse in een opinieartikel in het dagblad Trouw.
Volgens Trouw is Leon Ingelse freelance journalist, maar volgens zijn LinkedIn-pagina werkt hij als datawetenschapper bij Onja. Dit is een bedrijf dat jonge mensen in Madagascar opleidt tot softwareontwikkelaars. Ingelse noemt zich naast datawetenschapper schrijver en AI-ethicus. Ingelse schreef eerder opinieartikelen voor Trouw en het Parool, zo blijkt uit zijn profiel op Github. In het dagblad Trouw verscheen op 29 juli zijn opinieartikel over het hypen van kunstmatige intelligentie (AI).
Angst voor AI
Ingelse gaat in het artikel op de angst dat AI-systemen steeds intelligenter worden, een eigen wil krijgen en de wereld overnemen van de mens. Volgens Ingelse ligt de focus in het publieke debat op die angst, die ook nog eens door techbedrijven wordt gevoed. Techbedrijven hebben daar baat bij, zegt Ingelse. Hij verwijst voor onderbouwing van zijn opinie naar een artikel van Finse onderzoekers, gepubliceerd in het vaktijdschrift AI and Ethics.
“Onderzoekers Salla Westerstrand (Universiteit van Turku) en Rauli Westerstrand (Disruptive Futures Institute) stellen dat het gebrek aan nuance, transparantie en verdieping in de discussie rond AI-gevaren laat zien dat tech-tycoons niet geïnteresseerd zijn in informeren opdat de gevaren worden onderzocht, maar in het voeden van een hype. De angst voor een hypothetische vrije wil leidt namelijk af van hun eigen betrokkenheid en vertraagt constructief beleid voor de reële problemen van AI.”
Hypothetisch gevaar
Sam Altman, CEO van OpenAI, de ontwikkelaar van ChatGPT, waarschuwde vorig jaar dat AI alle mensen zou kunnen vermoorden. Otto Barten, directeur van de Existential Risk Observatory, schreef in Trouw over het gevaar van oncontroleerbare AI. Hierop reageert Ingelse met zijn artikel in Trouw. De angst dat AI-systemen uit zichzelf een vrije wil krijgen is vooralsnog hypothetisch, schrijft Ingelse.
Ingelse: “Er is geen enkel bewijs dat LLMs (Large Language Models, AI-tools zoals ChatGPT) uit zichzelf een vrije wil krijgen, noch is er een relatie tussen de nauwkeurigheid van LLMs en het ‘zelfstandig doelen’ bereiken. AI-systemen streven zelfstandig doelen na omdat mensen (lees tech-tycoons) ze dat opdragen.”
LLMs herkauwen data
Ook hierbij verwijst Ingelse naar een artikel van onderzoekers, namelijk Martha Lewis (Universiteit van Bristol) en Melanie Mitchell (Universiteit van Santa Fe). Deze onderzoekers vonden dat redeneren in LLMs sterk achteruitgaat wanneer ze een probleem in onbekende semantiek (taal waarmee de LLMs niet zijn gevoed) stelden.
“Mensen hebben daar geen moeite mee. Dit wijst erop dat LLMs niet redeneren, maar eerder geziene data herkauwen. Is dat intelligentie?”, vraagt Ingelse zich af.
Lees het opinieartikel van Leon Ingelse in Trouw
Bronnen:
Talking existential risk into being: a Habermasian critical discourse perspective to AI hype | AI and Ethics (springer.com)
door Salla Westerstrand en Rauli Westerstrand
Using Counterfactual Tasks to Evaluate the Generality of Analogical Reasoning in Large Language Models (arxiv.org)
door Martha Lewis and Melanie Mitchell