Een traditionele kredietscore, zoals de FICO-score, is gebaseerd op data over jou. Of je ooit geld hebt geleend, hoeveel je leende en of je het op tijd terugbetaalde. Die factoren, is de gedachte, kunnen voorspellen of je in de toekomst je lening terug zal betalen.
Er is genoeg reden om deze redenering onrechtvaardig te vinden. Schulden worden regelmatig veroorzaakt door hoge medische kosten of ontslag. Sommige mensen kunnen zulke tegenslagen opvangen met hun spaargeld, maar niet iedereen heeft daar genoeg vermogen voor. Zo is een kredietscore niet alleen een maatstaf van betrouwbaarheid, maar ook van mazzel.
De berekening van big data-kredietscores gaat nog een stap verder. Neem weer Jenipher en haar eetkraam. Hoe bepaalde Tala dat de Keniaanse een lening mocht krijgen? Daarvoor moest Jenipher het bedrijf via een app toegang geven tot haar telefoon. Haar telefoongegevens lieten zien dat ze geregeld belde met familie in Oeganda. Bovendien communiceerde ze met wel 89 verschillende mensen. Factoren die volgens Tala’s algoritme de kans verhogen dat Jenipher haar lening gaat terugbetalen. Dat ze regelmatig contact heeft met dierbaren, bijvoorbeeld, verhoogt die kans volgens de analyse met 4 procent. Ook een vast dagelijks patroon en het hebben van meer dan 58 contacten lijken gunstige signalen.
Big data-kredietscores werken dus anders dan traditionele scores. De algoritmes kijken niet alleen naar wat jij hebt gedaan, maar naar wat mensen zoals jij hebben gedaan. Ze zoeken naar verbanden - correlaties - in de data en voorspellen daarmee wat jij zal gaan doen. Daarbij zijn alle cijfers welkom, zolang ze maar goed voorspellen.
Zelfs de woorden in iemands aanvraag kunnen al veelzeggend zijn. Douglas Merrill van Zest Finance stelde in 2013 dat een aanmelding met enkel hoofdletters - of juist alleen kleine letters - een indicatie kan zijn van slecht betaalgedrag. Ook je koopgedrag of je socialemedia-accounts kunnen worden gebruikt om je betaalmoraal te voorspellen.
Ooit lieten bankiers hun beslissing om iemand al dan niet een lening te verstrekken beïnvloeden door vooroordelen over ras, sekse en klasse. De FICO-scores moesten daar een eind aan maken. Maar met big data-kredietscores lijken we weer precies hetzelfde te doen als die ouderwetse bankier: iemand beoordelen aan de hand van de groep waartoe hij of zij behoort.
Alleen worden die groepen nu gedefinieerd als de Hoofdletterschrijvers, de Koopjesjagers, de Vriendlozen. Kijk je onder het oppervlak van de cijfers dan zie je dat er weinig nieuws aan is. Het schrijven in hoofdletters is waarschijnlijk gecorreleerd met je onderwijsniveau. Het hebben van LinkedIn-contacten met het hebben van een baan. En waar je winkelt zegt veel over je inkomen.
Zo maken algoritmes vaak precies hetzelfde onderscheid als die ouderwetse bankier: laag- of hoogopgeleid, met of zonder baan, arm of rijk. Statistici noemen het correlaties, andere mensen noemen het vooroordelen.
Hoe zit het met correlatie en causaliteit nu we big data hebben? Volgens Chris Anderson, de voormalig hoofdredacteur van technologietijdschrift Wired, hoeven we ons daar geen zorgen meer over te maken. De verklaring voor bepaalde verbanden is onbelangrijk, schreef hij in 2008 in zijn invloedrijke artikel ‘The End of Theory’. ’Googles basisfilosofie is dat we niet weten waarom deze pagina beter is dan die: als de statistieken […] zeggen dat het zo is, dan is dat goed genoeg.' Dat correlatie niet gelijk is aan causaliteit doet er volgens Anderson niet meer toe. 'Petabytes staan het ons toe te zeggen: “Correlatie is genoeg.”’
Een zeer naïeve uitspraak. Ook in het big datatijdperk is correlatie niet genoeg. Neem Google Flu Trends, het algoritme dat in 2008 met veel tamtam werd geïntroduceerd. Aan de hand van zoekopdrachten beloofde Google te kunnen voorspellen waar, wanneer en hoeveel griepgevallen er zouden komen. Twee of drie jaar lang voorspelde het model vrij nauwkeurig wanneer en waar de griep zou toeslaan. Maar in de jaren die volgden zat het algoritme er steeds naast, met in 2013 het dieptepunt toen het algoritme meer dan twee keer te veel griepgevallen voorspelde.
De bouwers van het algoritme hadden uit vijftig miljoen zoektermen de vijfenveertig gekozen die het sterkst correleerden met de bewegingen in de griepgolf. Vervolgens hielden ze de zoekacties op die termen in de gaten. Dat klinkt logisch, maar: als je maar lang genoeg zoekt, vind je altijd wel een verband.
Sterker nog, juist bij big data heb je last van dit probleem. Want hoe meer datapunten je hebt, hoe meer verbanden je zult vinden die significant zijn. Zo vonden de onderzoekers een sterk verband tussen de zoekterm ‘high school basketball’ en de verspreiding van griep.
Een ander probleem met het algoritme was dat bouwers belangrijke ontwikkelingen negeerden. Veranderingen in het ontwerp van Googles eigen zoekmachine bijvoorbeeld. Zo liet de website vanaf 2012 mogelijke diagnoses zien als iemand bijvoorbeeld ‘hoesten’ of ‘koorts’ opzocht. Een van die diagnoses? Griep. Hierdoor gingen mensen waarschijnlijk vaker op zoek naar informatie over de ziekte en overschatte het Googe Flu-algoritme de griepgolf.
Ook kredietbureaus, zoals we eerder zagen, doen aan voorspellen. In die voorspelling liggen net zo goed toevallige correlaties op de loer en kunnen belangrijke ontwikkelingen evenzeer roet in het eten strooien. Als eenmaal bekend wordt dat je bepaalde woorden in een aanmelding moet gebruiken, bijvoorbeeld, dan kunnen mensen daarop inspelen en zeggen de correlaties weinig meer.
Maar stel nu dat we ons in de toekomst over deze twee valkuilen geen zorgen meer hoeven te maken. Dat we manieren vinden om toevallige correlaties te herkennen en we veranderingen real time in de gaten houden. Kunnen we dan wel blind op cijfers vertrouwen?
(tekst loopt door onder afbeelding)