Kan kunstmatige intelligentie psychotherapeuten helpen om snellere en betere diagnoses te stellen? In Engeland denken ze van wel: daar gebruiken zorgverleners en patiënten een AI-programma. Maar, waarschuwt een techfilosoof: "AI begrijpt je niet."

AI-apps die mensen helpen met hun geestelijke gezondheid bestaan al langer, met wisselend succes. Toch heeft de Engelse gezondheidszorg (NHS) kunstmatige intelligentie inmiddels omarmd en zet de technologie grootschalig in in de ggz.

Diagnose en behandelplan

Daar wordt het computerprogramma Limbic gebruikt om psychotherapeuten te ondersteunen. Nog voordat zij een woord met hun patiënt hebben gewisseld kan het programma een voorspelling van de diagnose doen en een mogelijk behandelplan opstellen.

Limbic werkt op basis van kunstmatige intelligentie. Het programma is getraind met veel data: zo is er informatie gebruikt van honderdduizenden patiënten en hun diagnoses, maar ook verschillende literatuurstudies zijn erin verwerkt.

Bekijk ook

Niet waterdicht

"Het doel van ons is echt het assisteren, en niet het vervangen", zegt Sebastiaan de Vries. Hij is medeoprichter van de start-up achter het programma. "Hoe zorg je dat een therapeut sneller tot een besluit kan komen? En hoe zorg je dat dat besluit vaker juist is?"

De Vries erkent dat de diagnoses die het programma geeft, nooit allemaal kunnen kloppen. Het AI-systeem is niet waterdicht, maar dat is de huidige manier van werken volgens hem ook niet: "Ook therapeuten zijn het onderling niet altijd eens over een diagnose of behandelplan."

Te weinig tijd

Ook worden er nu bepaalde diagnoses gemist, voegt hij daaraan toe. "In de NHS in Engeland zie je dat depressie en angststoornissen overgediagnosticeerd worden, maar dat specifieke angststoornissen als PTSS ondergediagnosticeerd worden."

Dat is volgens De Vries 'een direct gevolg' van het feit dat veel therapeuten te weinig tijd hebben. Het is een van de redenen dat de NHS daarom inzet op nieuwe technieken als deze. Inmiddels wordt Limbic al in bijna de helft van de ggz-klinieken in Engeland gebruikt.

Bekijk ook

In 'therapie' bij chatbot

Naast therapeuten assisteren kunnen patiënten via een chatbot van het programma ook in gesprek gaan met een AI-'therapeut'. Dit is bedoeld om hen te ondersteunen tussen de sessies met een echte therapeut.

Volgens De Vries is deze functie een succes: "Mensen die hun eerste sessie met Limbic hebben gehad zijn veel waarschijnlijker om te komen opdagen bij de volgende sessies, omdat ze een betere ervaring hebben. En omdat ze het gevoel hebben dat de therapeut hun probleem beter begrijpt."

'AI begrijpt je niet'

Shannon Vallor is hoogleraar aan de Universiteit van Edinburgh en techfilosoof. Ze is tegenstander van hoe kunstmatige intelligentie op deze manier wordt ingezet in de (geestelijke) gezondheidszorg. "Ik vind het niet kunnen dat een AI-systeem, gezien de beperkingen ervan, zich presenteert als een begrijpende therapeut."

"Deze systemen begrijpen je niet en zijn niets meer dan statistische modellen", benadrukt ze, "Ze kunnen fouten maken die een geschoolde arts nooit zou maken. Dat kan gevaarlijk zijn."

Bekijk ook

Twijfels over succes

Bovendien plaatst Vallor vraagtekens bij het succes van Limbic. De bewijzen hiervoor die de start-up aandraagt, zijn namelijk gebaseerd op hun eigen studies en dat kan niet, vindt de techfilosoof.

Ze snapt niet waarom de NHS voor zoiets belangrijks als de ggz voor deze technologie heeft gekozen. "Die beslissing moet gebaseerd zijn medisch en klinisch bewijs en niet op een hype of beloftes waar geen bewijs voor is."

Strenger toezicht?

Vallor benadrukt dat het om een kwetsbare groep patiënten gaat. Behoedzaamheid is dus geboden, maar de techfilosoof ziet dat juist het tegenovergestelde gebeurt. "Deze technieken worden vaak voor het eerst gebruikt bij de kwetsbaarste groepen in de samenleving."

Ze vindt dat er daarom veel strenger toezicht moet komen op AI-apps met 'therapeutische claims' die worden aangeboden, met name aan kwetsbare groepen. "Er is een groot risico op uitkomsten die niet objectief of fout zijn", waarschuwt de techfilosoof tot slot.

AI-therapeut al volop ingezet in ggz Groot-Brittannië: 'Het doel is echt assisteren, niet vervangen'

Vragen? Stel ze!

Heb je nog vragen of wil je reageren? Stuur ons dan hier een berichtje in onze chat. Elke donderdag vertellen we in de Doe mee-nieuwsbrief wat we met alle reacties doen. Wil je die in je mail? Meld je dan hier aan.