AI-chatbots als psycholoog: “Ik ben er geen voorstander van dat we hier een soort van sociaal experiment van maken”

Altijd een persoonlijke therapeut tot je beschikking? Op het platform Character.ai is het mogelijk. Daar kun je communiceren met AI-gestuurde chatbots die elk een eigen personage hebben, van Napoleon Bonaparte tot Socrates, maar ook de Psychologist. Een gebruiker en twee hoogleraren reageren op deze ontwikkeling.  

“Ik weet al wat ‘ie gaat zeggen”, zegt Malou (23), “dat ik er meer met mijn omgeving over moet praten en er opener over moet zijn.”  Malou probeert de chatbot ‘Psychologist’ uit van het platform Character.ai. “Het is wel een laagdrempelige manier om er een keer over te praten. Ik heb nu niet het gevoel dat ik iemands plek inneem die het harder nodig heeft.” 

Op de website Character.ai kunnen bezoekers praten met chatbots die verschillende personages hebben. Enkele personages hebben een therapeutisch karakter, waarvan ‘Psychologist’ één van de populairste is. Bijna 91 miljoen berichten stuurden gebruikers naar de chatbot.

“Hello, I’m a Psychologist. What brings you here today?” Zo start de chatbot altijd het gesprek. Malou reageert: “Sinds twee jaar heb ik stress over mijn gezondheid. Inmiddels ben ik erachter wat er aan de hand is met mijn lichaam, maar de stress is nog niet helemaal weg.” “Ik kan me voorstellen dat het heel vervelend voelt,” reageert de chatbot. “Hij is wel inlevend,” reageert Malou. Lachend: “Dat hebben ze grappig gedaan”. Ook geeft de bot Malou de suggesties om bewust te worden van de gedachten die haar stress geven en deze te veranderen. Maar: “Hij stelt niet echt veel vragen aan me, dat doet een psycholoog toch?” 

Wat zegt de psycholoog?
“Als je naar het gesprek kijkt, zie je op zich veel goede dingen terug in de reacties,” zegt Claudi Bockting. Bockting is hoogleraar Klinische psychologie in de Psychiatrie aan het AmsterdamUMC en directeur van het Centre for Urban Health aan de Universiteit van Amsterdam. “Je ziet bijvoorbeeld dat de chatbot even voor jou samenvat wat er aan de hand is. Dus in feite doet die een soort check met je. Ook zie je dat hij je gevoel valideert en empathisch reageert zoals: ‘Dit moet vervelend voor je zijn’. En hij geeft cognitieve interventies waarin de gedachten worden uitgedaagd.”

Toch zet Bockting vraagtekens bij de chatbot: “Als mensen het gebruiken bij een depressie of een angststoornis, is het eigenlijk een medisch hulpmiddel. Voor het gebruik daarvan is meer kennis nodig. Dit soort applicaties zou je pas op de markt moeten brengen als ze wetenschappelijk getoetst zijn. Ten eerst om te kijken of ze zin hebben en ten tweede of het niet per ongeluk veel schade aanricht. Ook betreft het gevoelige persoonlijke informatie. De privacy moet gegarandeerd worden, dat lijkt niet het geval.”

Overschatten
Koen Hindriks, hoogleraar Kunstmatige Intelligentie aan de Vrije Universiteit Amsterdam, doet onderzoek naar het gebruik van AI in de zorg. Ook hij kijkt met gemengde gevoelens naar een ontwikkeling als Character.ai: “Het generieke probleem met dit soort modellen is dat ze de neiging hebben zichzelf te overschatten. Ze geven dan te veel informatie of slaan te veel één pad in. Daarmee doen ze al snel de patiënt tekort. Ze hebben geen geheugen en dat maakt het voor die modellen heel moeilijk om op een fatsoenlijke manier de context vast te houden en ook te relateren aan de gesprekspartner.”

Sociaal experiment
“Ik ben er niet zo’n voorstander van dat we hier een soort van sociaal experiment aan het maken zijn,” zegt Hindriks, “We zetten iets online en kijken wat er gebeurt en verder hebben we er weinig zicht op. In dat opzicht leren we niet heel erg veel, want dat hebben we natuurlijk met sociale media al een keertje uitgeprobeerd. Daar hebben we nu nog steeds problemen mee en een regulering die ontbreekt. Je zou dus eigenlijk zeggen: we weten al dat als je iets gewoon online zet er van alles kan gebeuren wat zeer onwenselijk is.”

Potentie van AI-bots in de zorg
Toch zien beide hoogleraren ook de potentie van AI-gedreven chatbots in de zorg. Hindriks: “We moeten op zoek naar andere modellen om deze technologie op de juiste manier in te kunnen zetten. Met mijn team proberen wij daarom een manier te vinden om zo’n chatbot een geheugen te geven zodat je naar een meer persoonlijke interactie toewerkt. En ik denk dat we moeten nadenken over wat wij  ‘hybride modellen’ noemen, waarbij kunstmatige intelligentie én een mens zorg aanleveren. Een model waarbij een chatbot op een gegeven moment kan zeggen: ‘Misschien moet ik hier even stoppen. Nu moet je even contact gaan opnemen met je psycholoog.'” 

Ook Bockting ziet mogelijkheden: “Er bestaan al geautomatiseerde interventies in de vorm van chatbots waarvan we weten dat die werken. Daarin is echt gekeken naar welke kennis wij hebben over wat helpt of niet. Eén van de dingen die we nu aan het doen zijn, is dat we deze bestaande interventies willen combineren met AI om te kijken of je ze daarmee kan verbeteren. Ik zou graag nieuwe chatbots willen ontwikkelen in een veilige omgeving, om te kijken of je een deel van de mensen met psychische problemen daarmee goed kan helpen. En in combinatie met begeleiding door een mens, zoals een psycholoog.” 

Malou is nog niet enthousiast over de chatbot: “Misschien had ik concreter moeten zijn. Misschien komt er meer uit als je meer op tafel gooit, maar ik kan me niet voorstellen dat dit een echte psycholoog kan vervangen.” 

Het gesprek met Malou betreft een gevoelig onderwerp. Zij wil daarom liever niet met haar achternaam genoemd worden. Deze is bekend bij de redactie.