
Ben je los aan het gaan op een festival, denkt je 'smartwatch' door de hoge hartslag dat je gestresst bent. Kunstmatige intelligentie probeert te snappen hoe we ons voelen en wat ze daarmee moeten doen, zonder te begrijpen wat emoties eigenlijk zijn.
De Autoriteit Persoonsgegevens waarschuwt in een nieuw rapport voor deze zogenaamde 'emotieherkenning' bij AI. Want kunstmatige intelligentie kan volgens hen alleen uitgaan van aannames en probeert emotie als een feit te begrijpen. Dat terwijl emoties over het algemeen niet te meten zijn, want niet iedereen is op dezelfde manier blij, boos of verdrietig.
Een harde stem
Volgens hoogleraar AI Mehdi Dastani aan de Universiteit Utrecht kan AI onze emoties wel én niet begrijpen. "De huidige AI-systemen zijn modellen die biologische data of fysiologische data waarnemen en op basis van die data een bepaald soort emoties toekennen", legt hij uit. "Dat soort modellen zijn niet altijd succesvol en accuraat."
Dat komt volgens hem omdat deze kenmerken, zoals een hartslag of bloeddruk, niet per se iets over emoties zeggen. "Heel vaak worden stemgeluiden geanalyseerd. Dan wordt iemand met een harde stem als woedend herkend, dit soort signalen zijn omstreden." Iemand die hard praat kan dus wel boos zijn, maar dat hoeft niet.
'Emoties geven iets aan dat wij denken'
De hoogleraar vindt dat we ons best zorgen mogen maken over deze ontwikkeling binnen AI-systemen. "Emoties geven eigenlijk iets aan: wat wij denken, wat we willen, hoe we ons voelen", somt hij op. "En als onze emotie automatisch herkend wordt, en misschien verkeerd, dan wordt de verkeerde beslissing genomen waardoor onze autonomie aangetast wordt."
Hierdoor kan bijvoorbeeld een AI-chatbot van een webwinkel denken dat wij iets willen kopen wat we helemaal niet willen, omdat die wat we schrijven verkeerd inschat. "Dat zijn volgens mij de grote gevaren van dit soort technologieën."
Niet bewust van risico's
Volgens Dastani moet er meer transparantie komen vanuit bedrijven en organisaties. "Het publiek moet zich bewust zijn van de risico's, hoe de systemen werken en dat ze inaccuraat kunnen zijn." Dat zijn we nog lang niet, ziet hij.
"Bedrijven geven zelf ook niet aan welke data ze gebruiken en wat ze met de beslissingen doen. Dus in dat opzicht zijn we niet bewust van de emotieherkenning-systemen en wat de risico's daarvan zijn."
'Moet duidelijk gecommuniceerd worden'
Het rapport van de Autoriteit Persoonsgegevens onderstreept dit. Ze spraken met meerdere bedrijven die AI emotieherkenning bijvoorbeeld gebruiken voor de klantenservice. Die bedrijven zeggen over het algemeen alleen aan te geven dat ze AI gebruiken als er naar gevraagd wordt door een klant. Het wordt dus niet van tevoren kenbaar gemaakt.
De hoogleraar wil daarom meer wetgeving rondom emotieherkenning. "Websites moeten verplicht worden om duidelijk aan te geven dat ze emotieherkenning inzetten en wat voor effecten die herkende emoties hebben. Dat moet duidelijk gecommuniceerd worden."
Medicijn tegen depressie aangeboden krijgen
Maar is het eigenlijk wel erg als kunstmatige intelligentie begrijpt hoe wij ons voelen? Stel dat een webwinkel via je camera ziet dat je verdrietig bent en je tissues aanbiedt om te kopen. "Dat kan heel fijn zijn", begint Dastani. "Maar je kan ook een medicijn tegen depressie aangeboden krijgen terwijl je dat niet nodig hebt."
De Autoriteit Persoonsgegevens vindt daarom ook dat bedrijven goed moeten nadenken of ze emotieherkenning willen gebruiken. "Organisaties moeten zich bewust zijn van de beperkingen van emotieherkenning en een bewuste afweging maken of de inzet ervan passend en proportioneel is."