Op zondagavond 7 november zond de VPRO de tegenlicht documentaire ‘De digimens’ uit, de digital human. Welke rol speelt empathie bij de interactie tussen mensen en de digitale gesprekspartner? Wat zijn de voordelen maar ook de (maatschappelijke) nadelen van inzet van de digital human?

Natuurlijk is de ontwikkeling en de inzet van robotica in klantcontact niet nieuw meer. Inmiddels heeft het gros van de consumenten wel een keer ervaring opgedaan met een chatbot. De voorbeelden uit de zorg in deze docu gaan een stap verder.

Bekijk uitzending online (tekst loopt door onder video)

De beperking van een robot

Wat opvalt bij de cliënt die de robot ‘gebruikt’ is dat de dialoog nog ongelijk is. De robot spreekt, de cliënt moet antwoorden geven op een scherm. Daarmee zie je ook dat de client dus naar het scherm kijkt en niet naar de ‘expressie’ van de robot.

Hier zie je duidelijk dat de praktijk van alledag nog niet zo ver is al de hoogwaardige visuele voorbeelden die in de documentaire ook gebruikt worden. Deze voorbeelden zijn mooie artist impressions of toepassingen in een lab omgeving.

Ook heeft een robot (nog) een fysieke beperking. Deze is nog niet overal inzetbaar. Niet in de laatste plaats omdat de hardware zorgt voor een kostenaspect en een beperking in de schaalbaarheid qua aantallen. Hier komt de ‘digital human’ om de hoek kijken die alleen gebonden is aan een scherm of projectie-mogelijkheid.

Vrijheden

Hoewel een digital human dus vrijheden biedt is het interessant om te zien hoe (voor)oordelen toch nog een rol spelen bij het kiezen van een passende digitale vorm. Zo zegt een van de mensen in de documentaire bij zorg te denken aan een vrouw. Dit is een stereotypering waar we als mens blijkbaar nog niet overheen kunnen stappen. Qua uiterlijk helpt de techniek vooroordelen te vermijden door een raciaal agnostisch uiterlijk te bieden blijkt uit de documentaire.

Het gevoel achter de vraag

In klantcontact kennen we het fenomeen ‘de vraag achter de vraag’. Vanaf nu kunnen we daaraan toevoegen het ‘gevoel achter de vraag’. Techfilosoof Alix Rübsaam geeft aan dat de huidige stand der techniek het mogelijk maakt dat mensen gehoord worden. Iemand luistert naar je en je krijgt antwoord (zie het Zweedse voorbeeld van Betsy in de documentaire). Zoals Alix aangeeft is de reactie echter de uitkomst van een som waarvan de mens de input geeft. Is dit spel van actie en reactie voldoende? Volgens Alix als het gaat om klanten het gevoel te geven gehoord te worden wel. Die illusie van gehoord worden ontstaat doordat de reactie van de computer past bij wat we verwachten of misschien zelfs willen horen. Zeker als de computer daarbij het voordeel heeft dat die alle tijd voor je kan hebben waar een medewerker tijdsdruk voelt. Dit is nog niet het ‘echte gehoord’ worden waar een mens invulling aan kan geven.

Het risico van de uitval of bias

De techfilosoof stipt ook aan dat de inzet van AI een risico met zich meebrengt. Hoe zorg je ervoor dat iedereen een gelijke kans heeft in het gebruik van AI? En hoe voorkom je dat de AI niet alleen doorontwikkeld op wat wel werkt en niet daarmee een extra drempel opwerpt voor mensen die uitvallen.

Interessant is te zien hoe ontwikkelaars en beleidsmaker bij een Nederlandse zorginstelling samen besluiten over hoe de digital human eruit zou moeten zien (raciaal agnositisch maar wel vrouw) en moet klinken. De groep is erg ‘wit’ en vermoedelijk ook hoogopgeleid. Dit roept de vraag op in hoeverre ze representatief is voor de doelgroep, de klanten van de zorginstelling. Een vraag die tegen het einde van de docu nog wordt beantwoord (-;.

Doen alsof

Uiteindelijk zit de essentie erin dat een van de eigenschappen van mensen is dat we empathie kennen. Zoals de van Dale het omschrijft:

empathie (de(v.)) het zich inleven in de belevingswereld van anderen, het zich kunnen verplaatsen in de gevoelens of gedachtengang van een anders

Dit is iets wat de computer per definitie niet kan. De computer kan op zijn hoogst het reacties laten zien die suggereren dat de computer empathisch is omdat dit de reacties zijn die we kennen van mensen die empathisch reageren.

Daarmee doet de computer dus per definitie ‘alsof’. De computer kan dit ook heel efficient doen maar het blijft nep en de computer wordt zeker geen mens. Dat is de reden waarom techfilosoof Vincent Müller moeite heeft met de term ‘Digital human’.

Bijvangst

Interessant is het punt dat Müller aanstipt dat bij interactie tussen zorgpersoneel en cliënten er ook sprake is van een vorm van bijvangst. De cliënt kan iets vertellen wat niet direct past in het ‘standaard verhaal’ maar wat vanuit zorg wel relevant is. Hoe pikt de AI dit op als deze techniek daar niet in getraind is? We moeten er niet aan voorbij gaan dat ook medewerkers dit soort signalen niet altijd oppikken. Zeker als de communicatie ad hoc is (zie ook het artikel over ‘communicatie doe het structureel‘ in de zorg).

De maatschappelijke vraag

Een andere vorm van bijvangst is een belangrijk maatschappelijke vraagstuk. Als je erin slaagt bepaalde taken te automatiseren, zet je dit dan in om de mens weg te automatiseren of zoek naar een andere toepassing van de vrijgekomen arbeidskrachten? Hierin is de bijvangst, of soms zelfs het hoofddoel, het bedrijfseconomische resultaat. De woordkeuze van Müller maakt duidelijk waar zijn voorkeur ligt.

De ‘down side’ van mensen

Het is mooi hoe de makers tegenover de negatieve aspecten die Müller benoemt het perspectief van de Zweedse wetenschapper tegenoverzetten. Ook de mens heeft ‘slechte kanten’ die zij gezien heeft als vluchteling uit Bosnië. Ook laten de makers de wetenschapster uit Hong Kong reflecteren op de vooroordelen bij mensen en de beperkingen die dit met zich meebrengt zoals ik hierboven schetste.

De risico’s van data

Tot slot roept het gebruik van digital humans nog de vraag op hoe we omgaan met de data die digital humans verzamelen. Deze data is nodig om de AI te kunnen laten leren dus zonder verwerking van data kan per definitie niet. Ook kan een systeem meer data tegelijk processen en gedetailleerder verwerken dan een mens. Dit roept verschillende ethische implicaties op.

Uiteindelijk is de virtuele agent beter

In 2018 schreef ik samen met Jan van der Weijden een artikel waarin we betogen dat (op termijn) de computer beter wordt in klantcontact dan een mens. Ons argument? Een AI-agent kan veel sneller leren op basis van veel meer data dan dat een menselijke agent dat kan. Daarmee is de computer veel beter in staat om ‘passende reacties’ te produceren. De computer wordt daarmee zo goed in het doen alsof dat de computer daarin beter presteert dan een mens. Al is het maar dat een mens met zijn beperkingen om te beginnen eerst de signalen moet kunnen oppikken om passend te kunnen reageren.

Natuurlijk is ons artikel bedoelt om het vraagstuk op scherp te zetten. Het is aan de lezer om dan na het lezen achter de titel ‘Uiteindelijk is de virtuele agent beter’ een uitroepteken (!) of een vraagteken (?) te plaatsen. Ik ben benieuwd wat het bij u wordt na het zien van de documentaire en het lezen van het artikel uit de archiefkast.

Afbeelding boven het bericht Gerd Altmann from Pixabay

Verder lezen? Klik op bovenstaande tags voor gerelateerde berichten of browse door de meest gelezen berichten hieronder.