Een vloedgolf van misinformatie overspoelt de wereld met alle maatschappelijke gevolgen van dien. Facebook kan hier iets aan doen, maar wil dat eigenlijk helemaal niet. Tegenlicht-regisseur Roland Duong is verbaasd: waarom wordt het techbedrijf niet veel harder aangepakt?

The New York Times had laatst een onthullend stuk. De Amerikaanse krant sprak in het geheim met drie Facebook-werknemers die vertelden dat ze in de aanloop naar de Amerikaanse presidentsverkiezingen het nieuwsfeed-algoritme zó hadden aangepast dat kwaliteitsjournalistiek prominenter in de tijdlijn van gebruikers kwam te staan, in potentie zo’n 2 miljard mensen.

Misinformatie werd hierdoor minder zichtbaar. Facebook erkende de tweak, maar sprak over een tijdelijke aanpassing. In een ander experiment bij het techbedrijf werden berichten die werden gezien als 'slecht voor de wereld' in minder prominente posities gezet. Het gevolg was alleen dat, in beide gevallen, gebruikers minder rondhingen op het platform. Facebook kan het dus wel: minder fake news en desinformatie de wereld in slingeren, maar wil er helemaal geen rem opzetten. Minder gebruik, minder engagement betekent simpelweg minder miljarden voor CEO Mark Zuckerberg, een van de rijkste mannen ter wereld.

De kop van het New York Times-artikel laat er geen misverstand over bestaan: ‘Facebook Struggles to Balance Civility and Growth’ – een balanceeract dus tussen beschaving en humaniteit en ordinaire pecunia. Als Facebook geen zin heeft om iets aan misinformatie te doen, waarom wordt het bedrijf dan niet veel harder aangepakt?

Polarisatie als verdienmodel​​​​​​​

Voor mij (Tegenlicht-regisseur Roland Duong, red.) is de verspreiding van misinformatie een super urgent thema. Het gaat hier om een permanente tsunami die de wereld overspoelt, met alle maatschappelijke gevolgen van dien. De samenleving is toch al zo gepolariseerd. Mensen zijn onzeker over hun financiële toekomst. Zij die in de ongelijkheidskloof zijn gedonderd en economische onveiligheid ervaren, zijn waarschijnlijker een grotere prooi voor extremere emoties en standpunten, nepnieuws en misinformatie. Het gevolg is dat de scherpe tweedeling in de maatschappij alleen maar toeneemt.

Sociale media – en met name het Silicon Valley-model – spelen hierbij een grote rol. Naar mijn idee wordt dat veel te weinig benoemd. Natuurlijk kunnen we mensen niet beletten ruimhartig gebruik te maken van het recht op vrije meningsuiting. Maar het is de hoogste tijd om te voorkomen dat wilde complottheorieën mainstream worden, democratie-ondermijnend gedrag wordt gestimuleerd en dat mensen in een voortdurende staat van psychische onveiligheid worden gebracht.

De EU moet in actie komen

We hebben daarom dringend regulering nodig. Facebook zelf pakt de handschoen niet op. Ja, okay, ze hebben sinds een paar maanden een commissie voor ethische geschillen, dat ook wel Facebook’s Hooggerechtshof wordt genoemd. Daarin zitten mensen die we serieus kunnen nemen. Ze zijn weliswaar op papier onafhankelijk, maar ook in dienst van het bedrijf. Ze zijn allemaal ‘gekocht’. Hoe onafhankelijk ben je dan? Het is een soort zelfregulering om echte regulering van bovenaf te voorkomen. Zuckerberg en consorten hebben er immers helemaal geen belang bij polarisatie te stoppen.

Ik zie een duidelijke rol weggelegd voor de Europese Unie. En ik werp meteen maar even een knuppel in het hoenderhok: moet de EU niet een Chinees model invoeren? Als Chinese bedrijven als WeChat of AliBaba staatsondermijnende geluiden niet voldoende onderdrukken, trekken de machthebbers in Beijing hun vergunningen in.  Dat strikt autocratische model is voor ons uiteraard niet de oplossing. Meer overheidscontrole wél. De EU zou megabedrijven als Google en Facebook met wereldwijd miljarden gebruikers kunnen dwingen om ethische algoritmes te gebruiken. Dat moet dan wel een moreel-ethische EU-commissie zijn die dat besluit. Geen censuurcommissie zoals in China.

Hoe kunnen ook burgers profiteren van data?

Het is belangrijk dat we als Nederland en Europa veel meer grip krijgen op onze data. Data zijn de nieuwe olie. Er wordt ongelooflijk veel geld mee verdiend. We moeten er daarom voor zorgen dat burgers, die uiteindelijk de data leveren aan techbedrijven, zelf ook meer de vruchten plukken van die data. De GDPR, de Europese wetgeving ter bescherming van onze data, is alvast een goed hulpmiddel. In Nederland hebben we een equivalent voor GDPR, te weten de wet-AVG: de Algemene verordening gegevensbescherming. De AVG eist dat landen buiten de EU net zo verantwoordelijk omgaan met jouw data als de EU zelf.  Dat is de wet. Maar wie zorgt ervoor dat de wet ook daadwerkelijk wordt nageleefd? Met andere woorden: wie handhaaft er?

We moeten het tot dusver vooral hebben van individuen. In mijn research duikt de hele tijd één naam op: die van de jonge Oostenrijkse jurist Max Schrems. Hij neemt het met zijn stichting None of your Business bijna in zijn eentje op tegen Facebook en Google als zij de GDPR niet naleven. En met succes: het Europese Hof van Justitie gaf Schrems gelijk in zijn oordeel dat Facebook zich niet houdt aan de GDPR en daarom illegaal opereert in de EU.

Uitstekend nieuws, natuurlijk. Maar intussen doen de Europese nationale waakhonden niets om Facebook te manen zich aan de regels te houden. Die taak is in Nederland weggelegd voor de Autoriteit Persoonsgegevens, maar ik vraag me echt af of dat voldoende gebeurt. Facebook zelf doet ook bar weinig om zijn praktijken GDPR-compliant te maken, zoals dat heet.

We zitten dus in een schemergebied. Er zijn best strenge regels wat betreft data. Nu nog handhaven. Mijn advies: geef een organisatie als de Autoriteit Persoonsgegevens meer budget. Zodat ze meer slagkracht heeft. Op die manier kunnen we de datarovers van het illegale en immorele Facebook pas echt goed beteugelen.