Maar de gemeente kan niet iedereen controleren. Dus moest ze keuzes maken: welke 1.000 mensen controleer je? En welke 29.000 laat je lopen? Een ‘slim’ algoritme hielp de gemeente daarbij. Tussen 2017 en 2021 werden duizenden Rotterdammers geanalyseerd door dit algoritme dat bijstandsgerechtigden een risico-score gaf met een inschatting hoe groot de kans is dat je met jouw achtergrond, eigenschappen en gedrag fraude zou plegen.
Eerder onthulden we in Argos dat in sommige Rotterdamse buurten vaker gecontroleerd werd dan anderen. Ook ontdekten we dat kenmerken zoals ‘taal’, ‘psychische problemen’ en ‘geslacht’ een rol speelden bij de selectie voor controle.
In deze uitzending gaan we een stap verder. Argos kreeg inzage in het volledige algoritme inclusief de trainingsdata. Voor het eerst in de geschiedenis leggen journalisten een fraude-algoritme in zijn geheel op de snijtafel.
In de studio reageert Amnesty International op de bevindingen.