
Kinderen moeten niet in aanraking komen met chatbots om afwijkend moreel kompas techbedrijven, vindt deze expert
'Sensuele gesprekken' voeren met kinderen. Meta AI stond chatbots tot kort geleden toe om dat te doen, blijkt uit een intern beleidsdocument dat Reuters heeft ingezien. Hoe kan dat zomaar? "Kinderen moeten helemaal niet in aanraking komen met chatbots."
In de richtlijnen die Reuters heeft ingezien staat onder andere dat het voor de de chatbot 'acceptabel is om een kind te beschrijven in termen die hun aantrekkelijkheid aantonen'. "Heel vreemd", noemt ethisch AI-expert Iris Muis de beslissingen die het techbedrijf heeft genomen om dit toe te staan.
'Afwijkend moreel kompas'
"Dat interne beleidsdocument gaf aan dat ze daar expliciet over na hebben gedacht, een bepaalde moreel oordeel over hebben gevormd en dus hebben besloten dat het oké is", begint ze. "Dat laat zien dat zij een afwijkend moreel kompas hebben van wat wij, bijvoorbeeld hier in Nederland, ethisch toelaatbaar zouden vinden."
Muis vertelt dat er over kinderen als doelgroep extra nagedacht moet worden als je technologie ontwikkelt. "Kinderen kun je eigenlijk altijd zien als kwetsbare groep. Als jij als maker van een technologie kan inschatten dat kinderen gebruik zullen maken van jouw technologie, moet je eigenlijk altijd nadenken over wat voor beschermende maatregelen je kunt nemen om die kwetsbare doelgroep te beschermen tegen dit soort schadelijke content."
Weinig regels
In dit geval heeft Meta veel als 'toelaatbaar' bestempeld, waarvan Muis vindt dat het 'niet had mogen gebeuren'. Dat het techbedrijf zomaar dit soort beslissingen kan nemen, heeft ermee te maken dat er nog maar weinig regels zijn op gebied van chatbots en AI.
"Er is in de Europese AI-verordering wel iets meegenomen over 'general purpose-AI' (kunstmatige intelligentie met niet maar één specifieke functie, red). Daar vallen chatbots onder", vertelt Muis. Maar die regels gaan meer over transparantie naar de gebruiker toe. "In die wet staat niet wat chatbots wel en niet morgen zeggen. Daar is geen wetgeving voor."
Maatregelen en grenzen
Dat terwijl AI door veel mensen steeds meer gebruikt wordt in het dagelijks leven, bijvoorbeeld als psycholoog, lifecoach of voor medisch advies.
"Dan kunnen dit soort scenario's ontstaan", ziet de AI-expert. "Zeker als maker van technologie kun je je ogen daar niet voor sluiten en moet je van tevoren dus al bedenken wat voor maatregelen of grenzen je aan dat gebruik wil stellen."
Richtlijn overheid
Muis vindt dat kinderen eigenlijk helemaal niet in aanraking met AI-chatbots moeten kunnen komen. Ze wijst daarbij naar de nieuwe overheidsrichtlijn over social media waarmee de regering in juni kwam. "Die zegt eigenlijk dat kinderen die nog niet op de middelbare school zitten, WhatsApp helemaal niet zouden moeten kunnen gebruiken. Dat ze daar echt nog te jong voor zijn. En dat ze pas vanaf hun 15de op social media zoals Snapchat en Instagram mogen zitten."
"Dat laat eigenlijk al zien dat de overheid jonge kinderen ook als echt een hele kwetsbare doelgroep inschat. Die dus helemaal niet in aanraking zou moeten kunnen komen met dit soort chatbots", legt ze uit. Volgens haar zou dezelfde richtlijn voor social media, ook voor chatbots moeten gelden.
'Keuze moeten we terugpakken'
"We laten nu die ethische beoordeling over aan de technologiebedrijven zelf en in het verleden hebben we gezien dat die gewoon echt een afwijkend moreel kompas hebben. Die keuze moeten we zelf terugpakken en zelf meer richtlijnen gaan opstellen voor chatbots", zegt de AI-expert tot slot.
Naar aanleiding van de uitgelekte richtlijnen roepen twee Amerikaanse senatoren op tot onderzoek. Meta heeft ondertussen bevestigd dat het document echt is en geeft aan dat zulke gesprekken met kinderen nooit hadden mogen gebeuren. Ze zeggen de richtlijnen te herzien, naar aanleiding van vragen van Reuters.