Driekwart heeft hekel aan appen met chatbot

De meeste consumenten zitten niet te wachten op een chatbot, blijkt uit onderzoek van ConsumentenClaim. Driekwart van de 700 ondervraagde Nederlanders geeft aan negatief te staan tegenover chatbots bij klantenservices, meldt het Algemeen Dagblad.

Een chatbot die niet begrijpt wat je bedoelt, die je de vraag vijf keer laat herhalen. Het is een terugkerende ervaring van consumenten die in contact komen met klantenservices die in hoge mate zijn geautomatiseerd. De respondenten maakten het meest gebruik van chatbots bij webshops en op websites van verzekeraars, energiebedrijven, banken en de overheid. Hun ervaring levert frustraties op, en als ze niet volhouden ook financiële verliezen.

Fout via chatbot
Luchtvaartmaatschappij Air Canada gaf een klant, Jake Moffatt, via haar chatbot foutieve informatie over ticketkorting bij reizen vanwege een overlijden in de familie. Volgens de chatbot had Moffatt recht op korting en kon hij het geld later terugkrijgen. Dat bleek niet zo te zijn. Air Canada probeerde de chatbot de schuld te geven voor het tariefverschil, maar Moffatt spande een rechtszaak aan en won. Air Canada moest hem 651 Canadese dollar terugbetalen.

Disclaimers
Veel organisaties stellen allerlei voorwaarden en disclaimers op voor het contact met een chatbot, maar dat is niet de goede weg, zegt Stef Smit, directeur van ConsumentenClaim. “Soms staat onderaan de chat: onder voorbehoud van rechten. Maar jezelf verschuilen achter je chatbot kan echt niet. Uiteindelijk draag je als bedrijf altijd de verantwoordelijkheid voor de informatie die je gebruikt. Dat geldt ook voor wat een chatbot zegt,” aldus Smit.

Trainen met data
Een chatbot wordt getraind door het bijvoorbeeld te voeden met veelgestelde vragen, maar als de data onjuist zijn zal de chatbot verkeerde antwoorden geven. Dat vertelt Alexander Wijninga, medeoprichter van Watermelon, een bedrijf dat chatbots maakt. Zelfs met de juiste data kan het voorkomen dat de chatbot een fout maakt. Deze fouten worden ook wel hallucinaties genoemd: het systeem verzint een antwoord omdat het de vraag niet eerder heeft gekregen.

Test chatbot vooraf
Wijninga adviseert om de chatbot vooraf uitgebreid te testen en de antwoorden te monitoren. De ondernemer verbaast zich over de kwaliteit van sommige chatbots. Veel chatbots werken volgens hem als een ‘veredeld keuzemenu’: klanten krijgen bij elke vraag nieuwe keuzeopties voorgeschoteld. “Dit zijn geen goede chatbots. Er zit een groot verschil tussen deze chatbots en de chatbots die werken op basis van generatieve AI.”

Ook AI-chatbots hallucineren
Maar zelfs de beste AI-chatbots hallucineren vaak, meldt Security.nl op basis van onderzoek van het Allen Institute for Artificial Intelligence en enkele universiteiten in de VS. Volgens de onderzoekers is het hallucineren een probleem als gebruikers de uitvoer van de chatbots vertrouwen. “We kunnen de uitvoer van model generations nog niet volledig vertrouwen”, zegt onderzoeker Wenting Zhao. “Zelfs de beste modellen kunnen nu in slechts 35 procent van de gevallen hallucinatievrije tekst genereren.”

Lees over het onderzoek Wild Hallucinations

Bronnen:
Driekwart heeft een hekel aan appen met de chatbot: ‘beschamende praktijken’ | Economie | AD.nl
Onderzoek: zelfs de beste AI-chatbots hallucineren vaak – Security.NL

Abonneer
Laat het weten als er
guest
0 Commentaren
Inline feedbacks
Bekijk alle reacties