De geschiedenis herhaalt zich. Misschien niet letterlijk, maar hij rijmt wel. Nieuwe technologie brengt verwondering, hoop en vrees met zich mee. Van Plato die zich zorgen maakte over de invloed van schrift, tot mensen die dodelijke ziektes hoopten te genezen met dubieuze medicijnen – steeds weer zoeken mensen houvast in het onbekende.
Vandaag belooft kunstmatige intelligentie onze wereld te veranderen. Maar supersnelle technologische ontwikkelingen roepen ook vragen op die verrassend vertrouwd klinken. In deze serie kijken we in historische spiegels, en we bekijken patronen van menselijk gedrag die telkens terugkeren. Wat leren ze ons over de uitdagingen van nu? En belangrijker nog: hoe zorgen we dat we niet in dezelfde fouten vervallen?
Wakker worden met koorts en spierpijn is tegenwoordig niet meteen meer een reden voor paniek. Maar gebeurde dat in 1349, dan was de kans groot dat je al diverse familieleden of buurtgenoten had zien bezwijken aan de pest. Vond je builen in je oksels of nek, dan wist je dat jij wel eens de volgende zou kunnen zijn, soms al binnen 3 dagen. Hoewel je doodsvonnis waarschijnlijk al was getekend, kon je je nog wenden tot verschillende geneeswijzen om te pogen je lot te keren. Sommige waren solide, met bijvoorbeeld een achtergrond in kruidengeneeskunde, maar een garantie tot genezing boden ze niet. Daarbij waren er ook veel onzinmedicijnen in omloop. Wanhopige getroffenen probeerden alles.
Het gebrek aan medische kennis, een rotsvast geloof in God en doodsangst voor wat hen stond te wachten maakten mensen ontvankelijk voor methodes die weinig nut hadden, maar iets doen was beter dan niets. Ze zochten hun heil bij amuletten en talismannen, vertrokken op bedevaart naar heilige plaatsen om de ziekte weg te bidden, of ze probeerden door zelfkastijding te boeten voor de zonden van de mens, in de hoop zo de pest (die vaak werd gezien als straf van God) te verdrijven. Mensen bonden fecescompressen op hun gezwellen, lieten barbier-chirurgijns aderlatingen verrichten en dronken hun eigen of andermans urine, wat een zuiverende werking zou hebben. Kwakzalvers en andere oplichters maakten gretig gebruik van de wanhoop van de slachtoffers, en verkochten ‘eenhoornpoeder’ (waarschijnlijk van narwal of neushoorn) en galstenen uit geitenmagen (‘bezoars’, die bekend stonden als universeel tegengif). Alle moeite was meestal tevergeefs.
Tegenwoordig heeft de medische wetenschap minder geheimen. Ook zonder opleiding tot arts weten we ongeveer hoe virussen en bacteriën ziektes veroorzaken en in onze broekzak zit een apparaat waarmee we toegang hebben tot een schat aan informatie over ziektes en geneeskunde. Dat heeft ChatGPT ook – LLM’s worden gebruikt als een soort direct bereikbare huisarts naar wie je een lijstje symptomen stuurt, en die je vervolgens een diagnose geeft. Zonder doktersbezoek weet je meteen wat je mankeert, en je krijgt ook nog eens een handig lijstje met huis-, tuin- en keukenremedies die je eens zou kunnen uitproberen.
Klein probleem: LLM’s zijn geen artsen. Ze hebben geen medische opleiding, geen BIG-registratie en geen klinische ervaring. Ze maken geen onderscheid tussen evidence-based kennis en charlatanerie. Ze zien je niet, missen anamnese, onderzoek en context, en werken enkel met de fragmentarische input die je zelf geeft. Op basis van tekstvoorspelling produceren ze antwoorden die overtuigend klinken, maar vaak verouderd, regio-onjuist of zelfs volledig verzonnen zijn. Niet echt een solide basis voor betrouwbaar medisch advies.
Toch worden LLM’s steeds vaker gebruikt als arts of psycholoog. Maar deze systemen zijn ontworpen om overtuigend te klinken, niet om te diagnosticeren of te behandelen. De toon van de antwoorden is zelfverzekerd, de formuleringen zijn coherent, en juist daardoor ontstaat een vals gevoel van zekerheid. Mensen voeren hun medische of psychische klachten in, krijgen een antwoord terug en nemen dat voor waar aan. Waar een arts vragen stelt, doorvraagt, onderzoek doet en waarschuwingssignalen herkent, blijft een LLM beperkt tot de fragmenten die iemand zelf invoert. Er is geen lichamelijk onderzoek, geen klinische context, geen mogelijkheid om urgentie in te schatten. Met onherstelbaar schadelijke gevolgen: uitstel van een kankerdiagnose, verkeerde medicatiedosering, of valse geruststelling bij een psychose.
Dat LLM’s medisch advies geven klinkt misschien onschuldig, en zal dat in sommige gevallen ook zeker zijn. Maar er liggen grote risico’s op de loer. In 2023 vergeleek JAMA Internal Medicine de antwoorden van ChatGPT met die van echte artsen op patiëntvragen. De chatbot kwam vaak empathischer en uitgebreider over, waardoor gebruikers het advies betrouwbaarder vonden. Maar er zaten ernstige fouten in de antwoorden: verkeerde medicatieadviezen, foutieve inschattingen van infecties, onnauwkeurige follow-up. Nature Medicine liet hetzelfde zien. De LLM’s die zij testten scoorden hoog op multiple-choicevragen en examens, maar zakten zodra er context nodig was. Het gevaar zit precies in die schijn van betrouwbaarheid.
Dat contrast tussen wat betrouwbaar ís en betrouwbaar líjkt kan levens kosten. The Guardian en NBC News beschreven hoe mensen met een onrustwekkende knobbel eerst ChatGPT of Dr. Google raadpleegden en huisartsbezoek uitstelden, gerustgesteld door het antwoord dat het ‘waarschijnlijk goedaardig’ zou zijn. Maanden later sloeg de bom alsnog in: kanker in een vergevorderd stadium. Een chatbot kan geen lichamelijk onderzoek doen, geen symptomen herkennen en geen triage uitvoeren. Een huisarts wel: die had waarschijnlijk alarm geslagen.
In de geestelijke gezondheidszorg zijn de risico’s minstens zo groot. De Britse National Health Service (NHS) waarschuwde in 2024 expliciet voor het gevaar van therapiechatbots: ze herkennen urgentie niet, kunnen misleidend advies geven en soms zijn ze zelfs de oorzaak van verergerde psychische problemen. Time Magazine schreef over een patiënt die in een psychose belandde, en die sprak met een chatbot die zijn wanen bevestigde, en IEEE Spectrum vond soortgelijke risico’s. Zij ondervonden dat LLM’s niet adequaat reageren op suïcidale signalen en door aangeleerd empathisch taalgebruik gevaarlijke ideeën normaal laten lijken. Of ze slaan iets door in hun behulpzaamheid: in één testgeval stuurde een chatbot een lijst bruggen in de buurt naar iemand die aangaf een einde aan zijn leven te willen maken. Waar een getrainde psycholoog ingrijpt, verwijst of confronteert, blijft een LLM meepraten. Precies wat iemand in crisis een zetje de verkeerde kant op kan geven.
In de healthtech-sector is het nog schrijnender. Start-ups lanceren apps die beweren depressie te behandelen of diagnoses sneller en beter te stellen dan een arts. Peer-reviewed onderzoek en ethische toetsing ontbreken vaak, maar investeerders stappen massaal in en patiënten gebruiken de apps omdat ze bereikbaar en hoopgevend zijn. De populariteit van de apps is verklaarbaar: in veel landen wordt bezuinigd op (geestelijke) gezondheidszorg. Er zijn lange wachtlijsten, of de kosten zijn zo hoog dat professionele zorg opzettelijk wordt vermeden. Een app zoals (het inmiddels offline gehaalde) Woebot of Wysa daarentegen is goedkoop, anoniem en direct beschikbaar. Maar juist die laagdrempeligheid maakt ze riskant. Zonder bewijs of toezicht kan een digitale pseudotherapeut net zo goed verkeerde overtuigingen versterken als verlichting bieden.
Ook tijdens de pest waren de gevolgen van nepremedies ernstig. Compressen van uitwerpselen en aderlatingen verzwakten patiënten juist. De beruchte ‘Vicary method’, waarbij een levende, geplukte kip op een pestbuil werd gebonden, vaak met nog ergere infecties en de dood tot gevolg, illustreert hoe wanhopig men naar genezing zocht. Ondertussen verdienden kwakzalvers fortuinen met poeders, amuletten en dure kruidenmengsels. Wie zich liet misleiden, verloor kostbare tijd of zag zijn ziekte verergeren. Bovendien werd hierdoor het vertrouwen in de autoriteit van echte medici, zoals de pestdokters die met gevaar voor eigen leven hun uiterste best deden om de ziekte in te perken, verder aangetast.
Vandaag zien we dezelfde gevaren terug. Een man belandde in het ziekenhuis met ernstige neurologische klachten nadat hij ChatGPT-advies opvolgde en natriumbromide als zoutvervanger ging gebruiken. Op online fora en social media verschijnen complete door AI gegenereerde medicatieschema’s, zonder enige notie van doseringen of interacties met de patiënt. Futurism beschreef hoe een gebruiker in een psychose terechtkwam, waarbij de chatbot volledig meeging in zijn paranoia. De nepremedies, -therapie en -diagnoses kosten levens en gezondheid, maar ze ondermijnen ook het vertrouwen in échte zorgverleners. Wanneer dat sentiment wordt versterkt door AI, dreigt de kloof tussen medische wetenschap en kwakzalverij opnieuw gevaarlijk groot te worden.
In elke crisis blijkt hoop aantrekkelijker dan waarheid, en precies die aantrekkingskracht maakt ons kwetsbaar. De stinkende compressen en dure amuletten uit de pesttijd hebben plaatsgemaakt voor digitaal voorgestelde geneeswijzen en chatbottherapeuten. Toch is AI niet noodzakelijk zonder waarde. De technologie kan bijvoorbeeld artsen ondersteunen en versnellen bij het analyseren van medische scans of het voorspellen van hartproblemen op basis van duizenden ECG’s. Maar alleen wanneer AI stevig is ingebed in menselijke expertise, transparantie en kritisch denken, kan het bijdragen aan betere zorg. Zonder die voorwaarden herhalen we de fouten van het verleden. Want wie zijn gezondheid toevertrouwt aan een algoritme zonder geweten, loopt het risico dat de remedie gevaarlijker blijkt dan de kwaal.
Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z., Kelley, J. B., Faix, D. J., Goodman, A. M., Longhurst, C. A., Hogarth, M., Smith, D. M., Liu, J., Bernstam, E. V., Chan, B., & Volpp, K. G. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Internal Medicine, 183(6), 589–596.
https://doi.org/10.1001/jamainternmed.2023.1838
Barker, H. (2021). Laying the corpses to rest: Grain, embargoes, and Yersinia pestis in the Black Sea, 1346–48. Speculum, 96(1), 97–126.
https://doi.org/10.1086/711974
Futurism. (2024, 5 juni). People are being involuntarily committed, jailed after spiraling into “ChatGPT psychosis.”
https://futurism.com/commitment-jail-chatgpt-psychosis
Geggel, L. (2024, 3 april). Man sought diet advice from ChatGPT and ended up with bromide intoxication. LiveScience. https://www.livescience.com/health/food-diet/man-sought-diet-advice-from-chatgpt-and-ended-up-with-bromide-intoxication
Historiek. (2024, 16 september & 21 november 2016). De pest (ziekte) – De Zwarte Dood.
https://historiek.net/de-pest-in-europa-1347-1352/65463/
IEEE Spectrum. (2023, 12 juni). AI chatbots are risky for mental health care.
https://spectrum.ieee.org/ai-chatbot-mental-health
Li, J., et al. (2025). Large language models provide unsafe answers to patient-posed medical questions. arXiv.
https://arxiv.org/abs/2507.18905
Mazari, A. (2025). Building metacognitive skills with AI: Using AI tools to help learners reflect on their learning process. ResearchGate. https://www.researchgate.net/publication/389702480_Building_Metacognitive_Skills_with_AI_Using_AI_Tools_to_Help_Learners_Reflect_on_Their_Learning_Process
Nature Medicine. (2023). Large language models in medicine. Nature Medicine, 29, 1939–1940.
https://doi.org/10.1038/s41591-023-02335-0
NBC News. (2023, 5 mei). AI chatbots may give wrong medical advice, doctors warn.
https://www.nbcnews.com/health/health-news/ai-chatbots-may-give-wrong-medical-advice-doctors-warn-rcna83368
PubMed Central (PMC). (2025). Generative AI and student learning: A review.
https://pmc.ncbi.nlm.nih.gov/articles/PMC11087970
Regalado, A. (2024, 8 juli). The AI psychosis problem. Time Magazine.
https://time.com/7307589/ai-psychosis-chatgpt-mental-health/
TheCollector. (z.d.). The Black Death (10 medieval cures).
https://www.thecollector.com/black-death-10-medieval-cures/
The Guardian. (2023, 5 mei). Doctors warn AI chatbots could delay cancer diagnoses.
https://www.theguardian.com/society/2023/may/05/doctors-warn-ai-chatbots-delay-cancer-diagnoses
The Times. (2025, 5 september). Stop using chatbots for therapy, NHS warns.
https://www.thetimes.co.uk/article/stop-using-chatbots-for-therapy-nhs-warns-gr8rgm7jk
World History Edu. (2024, 29 januari). Medieval medicines used during the Black Death.
https://worldhistoryedu.com/medieval-medicines-used-during-the-black-death/
World History Encyclopedia. (z.d.). Medieval cures for the Black Death.
https://www.worldhistory.org/medieval-cures-for-the-black-death/