Tag: responsible AI

Filter
Waarom LLMs nog niet klaar zijn voor de IC

Waarom LLMs nog niet klaar zijn voor de IC

Zorginstellingen experimenteren met Large Language Models, een vorm van generatieve kunstmatige intelligentie (AI). De potentie is veelbelovend, maar de uitkomsten zijn nog onbetrouwbaar. Voor gebruik op de intensive care is meer onderzoek nodig.

Nieuws,AI, Onderzoek, Zorg,
Norbert Cuiper
14 februari 2025
AI-modellen kunnen mensen misleiden

AI-modellen kunnen mensen misleiden

Sommige grote taalmodellen vertonen geheimzinnig, bedrieglijk en manipulatief gedrag wanneer ze een harde doelstelling moeten behalen. Dat blijkt uit onderzoek van Apollo Research, een organisatie die zich richt op AI-veiligheid.

Nieuws,AI, Machine learning, Onderzoek,
Norbert Cuiper
11 december 2024
‘We moeten verantwoorder omgaan met AI’

‘We moeten verantwoorder omgaan met AI’

De ontwikkelingen met AI gaan snel. Lector ambient intelligence Jeroen Linssen verwacht dat mens en technologie naar elkaar toegroeien. ‘Ik zou graag zien dat dat op een verantwoorde manier gebeurt.’

Nieuws,AI, Onderzoek, Trends,
Norbert Cuiper
1 november 2024
Kunnen we AI veilig maken?

Kunnen we AI veilig maken?

AI-assistenten zoals ChatGPT maken af en toe heel basale fouten, die schade kunnen toebrengen aan mensen. Wat kunnen we doen om AI veiliger te maken? Dit onderzoekt Natasha Alechina, hoogleraar Safe and Responsible AI bij de Open Universiteit.

Nieuws,AI, Onderzoek, Trends,
Norbert Cuiper
31 oktober 2024
Rotterdam buigt zich over beleidskader voor algoritmes

Rotterdam buigt zich over beleidskader voor algoritmes

Gemeente Rotterdam is twee keer in de fout gegaan met het gebruik van discriminerende algoritmes. De gemeenteraad moet zich uitspreken over een beleidskader voor verdere ontwikkeling van algoritmes en AI.

Nieuws,AI, Onderzoek, Trends,
Norbert Cuiper
11 oktober 2024
Zelfcorrectie maakt generatieve AI betrouwbaarder

Zelfcorrectie maakt generatieve AI betrouwbaarder

De huidige taalmodellen waarmee generatieve AI-tools zoals ChatGPT werken zijn niet altijd betrouwbaar. Onderzoekers hebben een zelfcorrectiemechanisme bedacht om de betrouwbaarheid van grote taalmodellen te verbeteren.

Nieuws,AI, Machine learning, Onderzoek,
Norbert Cuiper
1 oktober 2024