Hoe Rotterdam haar burgers op de digitale snijtafel legt
De gemeente Rotterdam kent bijna 30.000 mensen in de bijstand. Zo’n 1.000 daarvan worden elk jaar onderworpen aan een uitgebreide controle vanwege een verdenking van ‘onrechtmatigheden’. Bijvoorbeeld omdat ze een cadeau aannemen, een betaalde klus niet doorgegeven of een formulier verkeerd invullen.
Maar de gemeente kan niet iedereen controleren. Dus moest ze keuzes maken: welke 1.000 mensen controleer je? En welke 29.000 laat je lopen? Een ‘slim’ algoritme hielp de gemeente daarbij. Tussen 2017 en 2021 werden duizenden Rotterdammers geanalyseerd door dit algoritme dat bijstandsgerechtigden een risico-score gaf met een inschatting hoe groot de kans is dat je met hun jouw achtergrond, eigenschappen en gedrag fraude zou plegen.
Eerder onthulden we in Argos dat in sommige Rotterdamse buurten vaker gecontroleerd werd dan anderen. Ook ontdekte we dat kenmerken zoals ‘taal’, ‘psychische problemen’ en ‘geslacht’ een rol speelden bij de selectie voor controle.
In deze uitzending gaan we een stap verder. Argos kreeg inzage in het volledige algoritme inclusief de trainingsdata. Voor het eerst in de geschiedenis leggen journalisten een fraude-algoritme in zijn geheel op de snijtafel.
In de studio reageert Amnesty International op de bevindingen.