Het internet staat er tegenwoordig vol mee: deepfakes. Dat zijn beelden, video's en audio-bewerkingen die met behulp van kunstmatige intelligente zijn gemaakt. Maar hoe herken je die eigenlijk? "De combinatie van beeld en geluid is gevaarlijk."

Bij sommige video's is het vrij duidelijk dat het om gemanipuleerde beelden gaat. Maar er zijn ook deepfakes die nauwelijks te onderscheiden zijn van de realiteit, zoals deze speech van Barack Obama. In aanloop naar de Europese verkiezingen beloofden techbedrijven dan ook dat ze misleidende AI-content rondom de verkiezingen zouden bestrijden. Toch glipten er deepfakevideo's door de filters van X en Meta.

We kregen de afgelopen tijd in onze chat van meerdere mensen de vraag hoe je deepfakes kunt herkennen. Deepfake-expert en onderzoeker Theo Gevers aan de Universiteit van Amsterdam (UvA), en Zeno Geradts leggen het uit. Geradts is zowel verbonden aan het Nederlands Forensisch Instituut als aan de UvA en doet onderzoek naar deepfakes.

1. Micro-expressies

Er is een aantal aspecten die je in de gaten kunt houden, zegt Gevers. "Bij video's kun je letten op micro-expressies, oftewel gezichtsuitdrukkingen, die gerelateerd zijn aan emoties. Zo kan het zijn dat gezichtsplooien of rimpels niet meebewegen als iemand lacht of fronst."

2. Belichting

Daarnaast kun je kijken naar belichtingseffecten. "De lichtinval komt vaak niet overeen met de realiteit. Met andere woorden: als het licht van een bepaalde richting komt, kloppen de schaduwen bijvoorbeeld niet. Zo'n deepfake-algoritme heeft nog niet helemaal het inzicht om dat perfect te krijgen."

3. Accessoires

Het derde aspect zijn accessoires, zoals sieraden. "Het kan zijn dat iemand bijvoorbeeld links wel een oorbel heeft en rechts niet."

4. Randen van het gezicht

Maar je kunt het ook zien aan andere details in het gezicht, vertelt Geradts. "Als er een 'face-swap' is gedaan, kunnen de randen van het gezicht niet kloppen. Je ziet dan bijvoorbeeld verschillen in de huidskleur. Dat is vooral goed te zien bij de deepfakes van minder goede kwaliteit."

5. Onnatuurlijk beeld

"Andere indicaties zijn ogen die nauwelijks knipperen, of onnatuurlijk haar, bijvoorbeeld als er gekke patroontjes verschijnen bij de scheiding." Of een gekke verhouding van het hoofd en lichaam. Als een hoofd groter is dan de rest van het lichaam, kan het een aanwijzing zijn voor een bewerkte video.

6. De stem

En die combinatie tussen beeld en geluid is gevaarlijk. Gevers: "Je ziet en hoort een persoon die net echt lijkt. Maar zo'n stem heeft ook wel imperfecties. Zo kan het algoritme nog niet heel goed emoties en intonaties door laten klinken. Als ik het bijvoorbeeld heb over de dood van mijn vader, klink ik waarschijnlijk erg geëmotioneerd. Je hoort dan aan mijn stem dat ik verdrietig ben. Zulke emoties zie je nog niet veel terug bij een AI-gegenereerde stem."

7. Synchroniciteit

Waar je het ook aan kunt herkennen, is synchroniciteit, zegt Geradts. "Bij een deepfake zie je nog weleens dat de mondbewegingen van de persoon die praat en zijn stem niet overeenkomen."

8. Vergelijk met betrouwbare bronnen

Los van technische afwijkingen, kun je ook nog een andere tactiek toepassen. Het is belangrijk om kritisch te blijven op de herkomst van de video, weet Geradts. "Een video van YouTube is minder betrouwbaar. Het is niet duidelijk wie de afzender is, met welke camera of telefoon er is gefilmd. Onthoud dat je altijd zo dicht mogelijk bij de originele bron moet blijven. Dus dat je de beelden die je hebt gezien in hun originele vorm kunt krijgen van de afzender van de video."

Hoe herken je een deepfake? (Universiteit van Nederland)
info

Verspreiden van deepfakes strafbaar?

In de Nederlandse wet is duidelijk beschreven wat je wel en niet mag verspreiden. Zo is het zonder toestemming maken en verspreiden van seksuele deepfakes volgens de bestaande wetgeving al strafbaar. Wat strafbaar is, hangt dus af van de inhoud.

Kennis uit data

Het is wel goed om te weten dat een algoritme geen kennis heeft van hoe de wereld eruitziet, benadrukt Gevers. "Een algoritme heeft alleen maar kennis over de data die hij krijgt. En de wereld is complexer dan die data."

Maar, nu grote bedrijven steeds meer data verwerven, wordt die informatie wel steeds completer. "Video's lijken tegenwoordig veel realistischer omdat je nu ook vaak de stem hoort van degene die je ziet." Het gebruiken van stemmen bij zulke video's heeft een enorme toevlucht genomen de laatste jaren, zegt de deepfake-expert. "Je kunt nu heel goed met apps een stem nabootsen op basis van 10 seconden stemmateriaal."

Onaanvaardbaar risico

"Recent is de AI-act aangenomen door Europa. Samenvattend betekent het dat er een aantal grondrechten van de mensen niet geschonden mag worden door AI. Op de deepfakes met een 'beperkt risico' zal geen hele strenge regelgeving komen."

Er wordt ook een registratiedatabase opgezet voor AI-systemen met een hoog risico. Als er sprake is van een onaanvaardbaar risico, zoals gedragsmanipulatie, worden deze AI-systemen verboden. Daarnaast verbiedt de wet het gebruik van AI voor politiewerk gebaseerd op profilering.

Vragen? Stel ze!

Heb je nog vragen of wil je reageren? Stuur ons dan hier een berichtje in onze chat. Elke donderdag vertellen we in de Doe mee-nieuwsbrief wat we met alle reacties doen. Wil je die in je mail? Meld je dan hier aan.