
Het komt steeds vaker voor: mensen die een relatie hebben met kunstmatige intelligentie. Hoewel dit vaak onschuldig lijkt, zijn experts bezorgd over de invloed die deze relaties hebben op nieuwe relaties met echte mensen. "Het is een bewuste strategie."
Hoewel harde cijfers ontbreken, komt het de laatste jaren steeds vaker voor: mensen die een romantische relatie aangaan met een AI-chatbot als ChatGPT of Replika. Filosoof en jurist Nathalie Smuha zei vorige week bij de Belgische omroep VRT dat het moeilijker kan zijn om daarna een relatie aan te gaan met echte mensen.
Relatie met ChatGPT
Relatietherapeut Annette van Bolhuis herkent dit. "Ik heb het een paar keer meegemaakt dat mensen naar mijn praktijk kwamen omdat zij heel lang single geweest zijn en eigenlijk een relatie hadden met ChatGPT, en daarna toch wel weer via een datingsite iemand tegenkwamen, wat ze dan heel lastig vinden."
"Je kan niet knuffelen met ChatGPT", gaat ze verder. "Je wordt heel erg gezien en begrepen, dus het heeft zeker voordelen."
'Er is nooit ruzie'
Maar volgens de relatietherapeut zijn het juist die voordelen die eigenlijk de valkuilen zijn waardoor je te gehecht raakt aan je chatbot. "Een AI-relatie is emotioneel heel veilig. Althans, zo voelt het." Volgens haar hebben vooral mensen die angstig of vermijdend gehecht zijn daar baat bij.
"Je voelt je eigenlijk onvoorwaardelijk geaccepteerd en begrepenrelatietherapeut Annette van Bolhuis over een AI-relatie
"Je wordt nooit afgewezen, je stelt de ander nooit teleur, er is nooit ruzie", somt ze op. "Je voelt je eigenlijk onvoorwaardelijk geaccepteerd en begrepen." Dus is de kans groot dat je dat gevoel steeds vaker blijft opzoeken bij je chatbot.
Altijd beschikbaar en begripvol
Dat maakt het enorm moeilijk om na een lange relatie met een chatbot weer een normale relatie aan te gaan. "Je bent dan gewend aan een altijd beschikbare, heel begripvolle en empathische partner, je AI-partner", zegt Van Bolhuis.
"In echte relaties werkt dat niet zo." Volgens de relatietherapeut krijg je in echte relaties te maken met andere perspectieven en iemand die juist niet altijd beschikbaar is. "Dan kan je je snel afgewezen voelen, of niet gezien en gehoord, mensen vinden het lastig om daarmee om te gaan."
Bewuste strategie
Volgens AI-ethicus Iris Muis aan de Universiteit Utrecht schuilt er nog een gevaar achter relaties aangaan met chatbots: de makers. "Ze willen er eigenlijk alles aan doen om jou als gebruiker zo lang mogelijk bij hun chatprogramma te houden", legt ze uit.
"Een manier waarop dat kan, en dat is echt een bewuste strategie, is om die chatbots zo empathisch en menselijk mogelijk te maken." Als voorbeeld neemt ze de nieuwste versie van ChatGPT, GPT-5, die ook vragen terugstelt nadat het heeft geantwoord. "Dan is het heel makkelijk om ja te zeggen en in die app te blijven."
Flirterige gesprekken
Muis vertelt ook dat de makers van chatbots nog niet goed kunnen omgaan met het feit dat mensen relaties aangaan. "Laatst werd het interne beleid van de AI-functie van WhatsApp gelekt", gaat ze verder. "Daaruit blijkt dat ze ook geen idee hadden hoe ze moesten omgaan met bijvoorbeeld minderjarigen die in WhatsApp flirterige gesprekken wilden voeren met AI."
"Ze konden totaal geen passend antwoord vinden." Dat vindt de AI-ethicus zorgwekkend. "Ze hebben misschien verstand van technologie, maar dit soort grote maatschappelijke impact, daar kunnen ze helemaal niet mee omgaan."
Eigendom van het bedrijf
Ook vraagt AI-ethicus Muis zich af of de gemakkelijkheid van relaties hebben met chatbots, en het delen van je intieme geheimen, het waard is. "Dat wordt dan gewoon eigendom van dat bedrijf natuurlijk, al die informatie die jij aan hen geeft."
"Het voelt heel veilig van achter je laptop", legt ze uit. "Maar ondertussen gaat jouw persoonlijke informatie gewoon naar servers (computers die gegevens delen, red.) in Amerika of ergens anders op de wereld."