Social mediabedrijven als Facebook bemoeien zich steeds vaker met de content op hun pagina's. Past een bericht niet binnen het beleid, dan is de kans dat het platform het verwijdert een stuk groter dan een paar jaar geleden. En dat zit zo.
Wie volgens Facebook racistische uitlatingen, haatdragend taalgebruik of nepnieuws verspreidt, kan er steeds vaker op rekenen dat het social mediabedrijf die posts of pagina's blokkeert of verwijdert. Eerst gebeurde dit vooral na een melding van andere gebruikers, tegenwoordig gaat Facebook er ook zelf naar op zoek.
Neutraal platform
Internetjurist Christiaan Alberdingk Thijm maakt graag de vergelijking met voormalig postbedrijf PTT. "Het zorgde ervoor dat de post van a naar b werd verstuurd, zonder zich verder te bemoeien met de inhoud ervan."
Dat is ook hoe Facebook zo'n vijftien jaar geleden begon: als een 'neutraal' platform, waar iedereen zijn of haar mening kon uiten, van extreemlinks tot ultrarechts.
Lees ook
Live aanslag
Maar in de loop der jaren kreeg het social mediaplatform steeds meer kritiek op die houding. De echte omslag kwam volgens Alberdingk Thijm na 2016. Toen bleek dat het Britse databedrijf Cambridge Analytica toegang had gekregen tot de gegevens van ruim 85 miljoen Facebookgebruikers, om zo gerichter campagne te voeren voor presidentskandidaat Donald Trump.
En het ging vaker mis, vorig jaar bijvoorbeeld, toen de dader van de aanslagen in Christchurch in Nieuw-Zeeland het bloedbad dat hij aanrichtte bij een moskee en een islamitisch centrum deels live kon streamen op het platform.
Scheidsrechter
"Mede door dit soort schandalen en de kritiek erop van gebruikers en adverteerders is het tij aan het keren", vertelt Alberdingk Thijm. "Facebook verandert van een 'neutraal' bedrijf dat faciliteert in een medium met een boodschap. Daarnaast speelt het bedrijf, wanneer het om inhoud gaat, zelf steeds meer voor scheidsrechter."
Dat betekent dat Facebook ook proactiever bepaalt wat er met posts en pagina's gebeurt. Past de inhoud niet binnen het beleid, dan is er een kans dat deze geblokkeerd of verwijderd wordt. Dat gebeurt steeds vaker geautomatiseerd, op basis van algoritmes.
Blokkeren, hoe werkt dat?
Tot nu toe worden posts en pagina's voornamelijk geblokkeerd of verwijderd nadat een Facebookgebruiker de post meldt omdat die deze aanstootgevend vindt. Een menselijke moderator maakt na die melding de definitieve beslissing. Zo gaat dat nu bijvoorbeeld met afbeeldingen van Zwarte Piet.
"Wat daarnaast steeds vaker gebeurt," vertelt techjournalist Wouter van Noort, "is dat Facebook zelf op zoek gaat naar posts die tegen het beleid ingaan. Dat doet het bedrijf op basis van steekwoorden, die geautomatiseerd worden opgemerkt. Die worden vervolgens gecheckt door een moderator."
Beleid onduidelijk
Om welke steekwoorden het gaat en wat de precieze criteria zijn om te blokkeren, laat Facebook een beetje in het midden. "En dat is op zich logisch", zegt Van Noort. "Anders zouden mensen met slechte bedoelingen zo'n blokkade makkelijk kunnen omzeilen."
Maar het beleid is voor de gemiddelde internetgebruiker nu wel heel ondoorzichtig, vindt internetjurist Alberdingk Thijm. "Facebook geeft wel zogeheten transparancy reports uit, een soort verantwoordingen waarin staat waarom een post of pagina geblokkeerd of verwijderd is, maar ook die zijn niet toegankelijk geschreven." Een ander, veelgehoord kritiekpunt is dat het Amerikaanse Facebook geen rekening houdt met de lokale situatie in een land. Bijvoorbeeld bij het verbod op afbeeldingen van Zwarte Piet.
Wat is nepnieuws?
Vooral nepnieuws is volgens hem een grijs gebied. "Want wat is nepnieuws? Er zijn theorieën waarvan bewezen is dat ze evident onjuist zijn, maar hoe zit het met meningen? Die kun je minder makkelijk weerleggen. Hoe Facebook hier te werk gaat, is heel onduidelijk."
De internetjurist pleit voor een soort medezeggenschapsraad, die bestaat uit experts en burgers, om zo te kunnen bepalen wat nepnieuws is. "Dan heeft Facebook niet meer het alleenrecht dat te beslissen."
Lees ook
Laatste woord voor Marc Zuckerberg
Wat is de grens tussen terechte bezwaren en vrije meningsuiting? Van Noort ziet platforms als Facebook ermee worstelen. "Eerst kregen ze kritiek omdat ze zich te weinig mengden in maatschappelijke discussies, maar nu ze ernaar handelen en werkelijk censureren blijkt hoeveel macht ze eigenlijk hebben."
Het laat zien dat er een democratisch tekort is, zegt de techjournalist. "Overigens is Facebook zich daar wel bewust van. Daarom heeft het een eigen 'hooggerechtshof' opgesteld. De leden daarvan moeten in de toekomst bepalen of Facebook het bij het juiste eind heeft. Dat gerechtshof zou eigenlijk al van start moeten zijn, maar dit is nog niet gebeurd. Nu heeft Facebookbaas Marc Zuckerberg letterlijk het laatste woord."
Vragen? Stel ze!
Heb je nog vragen of wil je reageren? Stuur ons dan hier een berichtje in onze chat. Elke donderdag vertellen we in de Doe mee-nieuwsbrief wat we met alle reacties doen. Wil je die in je mail? Meld je dan hier aan.