AI-assistenten zoals ChatGPT maken af en toe heel basale fouten, die schade kunnen toebrengen aan mensen. Wat kunnen we doen om AI veiliger te maken? Dit onderzoekt Natasha Alechina, hoogleraar Safe and Responsible AI bij de Open Universiteit.
Kunstmatige intelligentie oftewel artificial intelligence (AI) heeft de afgelopen tien jaar snelle vorderingen gemaakt en speelt een steeds belangrijkere rol in de maatschappij. De meeste vorderingen zijn te danken aan de ontwikkeling van deep learning en de toenemende beschikbaarheid van enorme hoeveelheden data en rekenkracht, meldt Alechina.
“Eerdere benaderingen van AI maakten veel meer gebruik van symbolische benaderingen, waarbij code werd geschreven door menselijke programmeurs. Dit is moeilijk voor complexe taken, maar dit maakt het makkelijker om aan te tonen dat het AI-systeem veilig is.”
Veiligheid
De toepassing van machine learning-technieken loopt echter vast in veiligheidskritische gebieden: robotvoertuigen hebben een onaanvaardbaar ongevallenpercentage en menselijke piloten zijn nog niet te vervangen door zelfvliegende vliegtuigen. Alechina: “Het probleem is dat we niet weten wat systemen, die gebaseerd zijn op leren, hebben geleerd.”
Language Learning Models (LLM’s), waarvan ChatGPT een voorbeeld is, hebben de neiging om dingen te verzinnen. Dit worden ook wel hallucinaties genoemd. “De oorzaak hiervan is dat LLM’s niet factive zijn, met andere woorden, ze weten het verschil niet tussen waarheid en onwaarheid,” aldus Alechina.
Wat kunnen we doen?
ChatGPT is een voorbeeld van een generatieve AI. Dit is een vorm van kunstmatige intelligentie die geautomatiseerd content creëert, op basis van ‘prompts’ . Dat zijn vragen of verzoeken van gebruikers. Generatieve AI is moeilijker van tevoren te beperken, tijdens de training.
Het is wel mogelijk om formele verificatietechnieken toe te passen óp de gegenereerde content. Als generatieve AI bijvoorbeeld een medisch behandelplan produceert, is het mogelijk om te verifiëren of het voldoet aan de richtlijnen die zijn voorgeschreven.
Toekomstvisie
In haar toekomstige onderzoek is Alechina van plan om veilige generatieve AI te ontwikkelen. Ze wil hierbij de flexibiliteit en het gemak van het genereren van inhoud met generatieve AI en leren in het algemeen combineren met de nauwkeurige formele garanties die door symbolische benaderingen worden geboden. Ze hoopt door deze twee verschillende benaderingen samen te brengen, dat een meer robuust, betrouwbaar, veilig en vertrouwd AI gaat ontstaan.
Alechina houdt haar oratie getiteld: ‘Can we make AI safe?’ op vrijdag 1 november 2024 om 16.00 uur aan de Open Universiteit in Heerlen. De oratie is live te volgen via ou.nl/live.
De oratie is het laatste onderdeel van een symposium over betrouwbare AI.
Bron: Oratie: Kunnen we AI veilig maken? – Open Universiteit – Open Universiteit (ou.nl)