Begin dit jaar ontstond in Nederland grote ophef over het bedrijf e-Court, een private, digitale ‘rechter’ die uitspraken doet over betalingsgeschillen tussen een zorgverzekeraar en een klant. Het bedrijf werd gebrek aan transparantie verweten over hoe de uitspraken van de robotrechter tot stand kwamen. De voorzitter van de Raad voor de Rechtspraak, Frits Bakker, zei dat hij vreest dat e-Court de juridische rechten van burgers aantast.
Steeds vaker nemen computeralgoritmen belangrijke beslissingen over burgers, consumenten en werknemers, in de VS nog vaker dan in Nederland: Wie krijgt er een lening? Wie wordt toegelaten tot een land? Wie komt op de no-fly-lijst van een vliegtuigmaatschappij? Hoe goed presteert een werknemer? Welke sollicitanten komen door de eerste selectie? Laat een medische scan wel of niet een tumor zien? De computer is snel, raakt niet vermoeid en heeft geen last van emoties. Handig, op het eerste gezicht.
Toch bleken zulke computerbeslissingen de afgelopen jaren lang niet altijd goed uit te pakken. Naar schatting worden meer dan duizend mensen per week door een algoritme op een luchthaven ten onrechte als terrorist aangemerkt. Een lerares uit Washington DC werd jarenlang door haar leerlingen als uitmuntend beoordeeld tot een algoritme haar opeens ongeschikt achtte. Software die in de Amerikaanse staat Florida wordt gebruikt om het recidiverisico van gevangenen in te schatten, bleek bevooroordeeld tegenover zwarte mensen. Dit laatste voorbeeld komt zondag uitgebreid aan bod in de VPRO Tegenlicht-aflevering over algoritmen.