De techniek om beelden met AI te maken wordt steeds toegankelijker en daarom ook steeds vaker ingezet om nepnieuws mee te verspreiden. Herkennen wat echt is en wat niet wordt hierdoor steeds moeilijker en dat is gevaarlijk, waarschuwen experts.
De ontwikkelingen rond kunstmatige intelligentie (AI) volgen elkaar in hoog tempo op. Waar het een paar jaar geleden nog veel moeite kostte om een nepvideo te genereren, kan dit tegenwoordig gewoon op een smartphone worden gedaan. En dat heeft grote gevolgen voor onze nieuwsconsumptie: want hoe weet je nog wat echt is?
AI-nieuwslezers op social media
Zo gebruikt de Chinese overheid op grote schaal kunstmatige intelligentie om propaganda, vermomd als nieuws, te verspreiden op social media, meldt de Britse krant The Guardian vandaag. En volgens de Amerikaanse krant The Washington Post zet terreurgroep Islamitische Staat (IS) AI-nieuwslezers in om hun extremistische boodschap online te verkondigen.
Nu is het gebruik van nieuwe technologie om mensen te beïnvloeden niet nieuw. Voorbeelden hiervan zijn de presidentsverkiezingen van 2020 in de Verenigde Staten, of eerder de ramp met vlucht-MH17 in 2014. Toen al waarschuwden veiligheidsdiensten voor Russische botnets die massaal nepnieuws verspreidden op het internet.
Bekijk ook
'Heel makkelijk geworden'
Maar door AI zijn we inmiddels wel in een nieuwe fase belandt, denkt hoogleraar informatica aan de Vrije Universiteit Amsterdam Felienne Hermans. "Ik denk dat de technologie nu wel zo is dat er heel makkelijk video's gemaakt kunnen worden waarin het lijkt alsof iemand iets doet."
Al zijn nog lang niet alle video's even geloofwaardig, zegt ze. "Bij sommige van die filmpjes kun je nu best duidelijk horen dat het een door een computer gegenereerde stem is." Maar soms is het bijna niet van echt te onderscheiden: "Hoe kun je als gebruiker, als je aan het scrollen bent, dan onderscheiden: dit is echt of dit is nep?"
Hoe herken je een nepvideo?
Er zijn wel een aantal trucjes om te herkennen of beeld met kunstmatige intelligentie is gegenereerd, legt de hoogleraar uit. "Kijken naar handen, want die zijn heel erg lastig te maken. Dus als iemand zes vingers heeft, dan klopt het niet. Soms zie je het ook wel een beetje aan gezichtsuitdrukkingen. We zijn er als mensen natuurlijk best goed in om een echt mens te herkennen."
Daarbij is het ook belangrijk om te checken of er meer bronnen zijn die het beeld ondersteunen, vervolgt ze. "Zijn er andere mensen die het hierover hebben? Wat denken experts ervan?", geeft ze als tip. "Maar dat kost natuurlijk veel meer moeite. Als jij gewoon lekker zit te scrollen, kun je bijna niet bij ieder filmpje kijken of je er een bron voor kan vinden."
Bekijk ook
Ontkennen, want alles is nep
Bovendien zorgt beeldmanipulatie door AI er ook voor dat mensen kunnen ontkennen dat ze bepaalde dingen hebben gezegd of gedaan. Hermans noemt de 'Grab them by pussy'-rel rond Donald Trump als voorbeeld. Een geluidstape waarop de toenmalige presidentskandidaat de omstreden uitspraak deed, lekte in 2016 vlak voor de verkiezingen uit.
"Trump kon toen zeggen: 'Nou, dat deed ik gewoon en dat is helemaal niet zo erg.' Maar hij kon niet zeggen: 'Dat was ik niet.'" Door alle nepvideo's die rondgaan op het internet is dat inmiddels anders, zegt de hoogleraar. "Het is nu zo makkelijk om te zeggen: 'Dat was nep.'"
'Gevaar dat mensen afhaken'
Daar zit volgens haar het grootste gevaar in. "Dat omdat er nagemaakte filmpjes zijn, we straks helemaal niet meer weten wat we kunnen vertrouwen", legt ze uit. "Straks heb je op allerlei soorten manieren informatie, waar misschien een kern van waarheid in zit, maar met zoveel eromheen wat niet helemaal klopt of net iets verdraaid is."
Het gevolg hiervan kan zijn dat mensen uiteindelijk 'nieuwsmoe' worden en afhaken, waarschuwt Hermans: "Zo van: 'Ja, het maakt het ons niet meer uit. Het is toch allemaal nep.' Dat is pas het echte gevaar."
Bekijk ook
Belang van journalistiek
En dat kan ook het aanzien van de journalistiek schaden. Dat Omroep Brabant online video's laat presenteren door een AI-nieuwslezer, vindt ze dan ook geen goed idee. "Ook al is het leuk en wil je experimenteren met al die geweldige technologie, je leunt wel heel erg mee in het frame dat wat je doet vervangen kan worden."
Terwijl de verspreiding van nepvideo's juist laat zien hoe belangrijk het werk van journalisten is, benadrukt Hermans. "Die doen meer dan alleen maar wat vertellen. Ze doen ook onderzoek, interviewen mensen, pakken verschillende perspectieven bij elkaar", somt ze op. "Dus om die reden denk ik: het werk als journalist is zoveel meer, waar je geen algoritmes voor kunt inzetten óf wil inzetten."
Transparantie afdwingen
Maar valt hier nog iets tegen te doen? Overheden liepen in het verleden immers vaak achter de feiten aan bij digitale ontwikkelingen. "Je moet opletten dat je niet in een fatalistische houding komt", zegt de hoogleraar. Dat de Europese Unie met twee nieuwe wetten - de Digital Services Act en Artificial Intelligence Act - probeert kunstmatige intelligentie te reguleren, vindt ze een goed teken.
"Het is belangrijk om er iets aan te doen", zegt Hermans tot slot. Er moet volgens haar meer transparantie worden afgedwongen. "Je kan eisen: in iedere software die deepfakes kan maken, moet een watermerk zitten: 'Let op! Dit is gemaakt met AI.' Dat zullen die bedrijven helemaal niet willen, maar dat kan je met wetgeving wel afdwingen. Dat zou wel helpen."
Bekijk ook
Vragen? Stel ze!
Heb je nog vragen of wil je reageren? Stuur ons dan hier een berichtje in onze chat. Elke donderdag vertellen we in de Doe mee-nieuwsbrief wat we met alle reacties doen. Wil je die in je mail? Meld je dan hier aan.