Hierover spraken Damian Trilling, universitair docent politieke communicatie en journalistiek aan de Universiteit van Amsterdam en Daphne van der Kroft, woordvoerster van de belangenorganisatie Bits of Freedom.
Luister hier het gesprek terug:
Steeds meer mensen halen hun nieuws niet meer uit de traditionele krant of het televisiejournaal, maar van het internet. Zo wordt Facebook nu bijvoorbeeld ook gebruikt als nieuwsmedium. Maar kan het gebruiken van de gepersonaliseerde Facebook tijdlijn als nieuwsbron ertoe leiden dat mensen in een zogenaamde filterbubbel gaan leven? En wat zijn dan de gevolgen hiervan?
Hierover spraken Damian Trilling, universitair docent politieke communicatie en journalistiek aan de Universiteit van Amsterdam en Daphne van der Kroft, woordvoerster van de belangenorganisatie Bits of Freedom.
Luister hier het gesprek terug:
Door algoritmes die bijhouden wat onze interesses en politieke voorkeuren zijn krijgen we op sociale media zoals Facebook vooral nieuws en informatie te zien wat in ons straatje past, dat is de filterbubbel. Van der Kroft legt uit hoe dit werkt: “Als u vrienden heeft op Facebook en zij hebben bepaalde interesses, dan heeft dat invloed op wat u te zien krijgt. Dus als uw vrienden allemaal de Volkskrant lezen, dan is de kans groter dat u Volkskrant artikelen in uw tijdlijn te zien zal krijgen." En dit beperkt zich niet alleen tot Facebook: "We komen op het internet steeds meer in onze eigen bubbels terecht."
Een aantal jaar geleden werd de filterbubbel ook al opgemerkt bij het gebruik van de Google zoekmachine. Er kwam naar voren dat zoekresultaten op Google worden aangepast aan iemands interesses. Dus bijvoorbeeld als twee mensen ‘Egypte’ googelen krijgt de een nieuws over de politieke situatie daar te zien, terwijl aan de ander vakantieaanbiedingen worden getoond.
Nu is de vraag of dit een probleem is. Het kan handig zijn om informatie te zien die specifiek voor jou relevant is. Tegelijkertijd kan deze onzichtbare personalisatie voor een grotere tweedeling in de maatschappij zorgen zo vrezen sommigen. Als iedereen alleen maar informatie te zien krijgt die zijn of haar mening versterkt en andere geluiden geen kans krijgen.
De onderzoeksgroep aan de UvA waar Trilling onderdeel van is bracht deze week juist naar buiten dat het filterbubbel-effect wel meevalt: “Het is inderdaad zo dat je op Facebook vaker dingen tegenkomt die aansluiten bij wat je eerder dacht of deed. Het punt is wel dat de bubbel minder gesloten is dan soms lijkt, omdat mensen natuurlijk niet alleen maar Facebook gebruiken voor hun informatievoorziening”, zo vertelt Trilling.
Ook laat het algoritme zo nu en dan wel dingen zien die buiten jouw bekende interesses vallen, om te kijken of je hier misschien toch op klikt. “Zo’n algoritme heeft ook een bepaalde mate van diversiteit. Facebook is er niet bij gebaat om het echt 100 procent af te sluiten.”
Van der Kroft benadrukt dat de filterbubbel zich wel aan het uitbreiden is: “We zien dat steeds meer diensten en websites ook willen specialiseren. Dat betekent dus dat die filterbubbel op al die andere platforms ook steeds meer zal ontwikkelen.”
Maar Bits of Freedom, een organisatie die opkomt voor vrijheid en privacy op het internet, vreest ook voor een ander nadelig effect van de grote behoefte tot personaliseren. Zo vertelt Van der Kroft: “De angst is dat er één partij is die al die gegevens over ons in bezit heeft. Facebook weet nu ook al bijvoorbeeld of we bepaalde medische aandoeningen hebben, over ons inkomensniveau, over onze religieuze interesses et cetera. Dat toont zich aan ons in de advertenties die we zien. Maar wat daaraan ten grondslag ligt is dat er data monopolies ontstaan die zo groot zijn dat het steeds moeilijker worden om ons daarvan los te trekken en controle over uit te oefenen.”