Zorginstellingen experimenteren met Large Language Models, een vorm van generatieve kunstmatige intelligentie (AI). De potentie is veelbelovend, maar de uitkomsten zijn nog onbetrouwbaar. Voor gebruik op de intensive care is meer onderzoek nodig.
Sommige grote taalmodellen vertonen geheimzinnig, bedrieglijk en manipulatief gedrag wanneer ze een harde doelstelling moeten behalen. Dat blijkt uit onderzoek van Apollo Research, een organisatie die zich richt op AI-veiligheid.
De ontwikkelingen met AI gaan snel. Lector ambient intelligence Jeroen Linssen verwacht dat mens en technologie naar elkaar toegroeien. ‘Ik zou graag zien dat dat op een verantwoorde manier gebeurt.’
AI-assistenten zoals ChatGPT maken af en toe heel basale fouten, die schade kunnen toebrengen aan mensen. Wat kunnen we doen om AI veiliger te maken? Dit onderzoekt Natasha Alechina, hoogleraar Safe and Responsible AI bij de Open Universiteit.
Gemeente Rotterdam is twee keer in de fout gegaan met het gebruik van discriminerende algoritmes. De gemeenteraad moet zich uitspreken over een beleidskader voor verdere ontwikkeling van algoritmes en AI.
De huidige taalmodellen waarmee generatieve AI-tools zoals ChatGPT werken zijn niet altijd betrouwbaar. Onderzoekers hebben een zelfcorrectiemechanisme bedacht om de betrouwbaarheid van grote taalmodellen te verbeteren.