Machine learning in de zorg klinkt als een droom. Snellere diagnoses, minder administratielast, betere behandelkeuzes. Maar de werkelijkheid is grilliger. Van algoritmes die systematisch patiënten uitsluiten tot chatbots die racistische medische mythes verspreiden — de risico’s zijn inmiddels net zo zichtbaar als de belofte.
Zorginstellingen experimenteren met Large Language Models, een vorm van generatieve kunstmatige intelligentie (AI). De potentie is veelbelovend, maar de uitkomsten zijn nog onbetrouwbaar. Voor gebruik op de intensive care is meer onderzoek nodig.
Artsen kunnen patiënten beter behandelen als ze een AI-chatbot gebruiken. Dat blijkt uit onderzoek aan de Stanford Universiteit.
Honderdduizenden burgers hebben sinds 2019 online aangifte gedaan bij de politie van oplichting via een regel-gebaseerde AI-chatbot. Een dergelijk systeem wordt ook toegepast in de medische sector en is mogelijk toepasbaar in de financiële sector.
42% van de hoogopgeleide professionals in Nederland gebruikt wel eens generatieve AI-tools zoals ChatGPT op het werk. Dat is ver onder het Europese gemiddelde van 75%.
AI kan de zorg beter en efficiënter maken, wordt gezegd. Maar hoe werkt dit in de praktijk? De Volkskrant laat drie voorbeelden zien waarbij AI de gezondheidszorg efficiënter maakt.