Ik heb de uitleg over jullie nieuwe project rond het meten van emotionele ervaringen met belangstelling gelezen. Het is spannend om deel te zijn van de geboorte van een nieuwe technologie, en het wonder van innovatie is duidelijk aanwezig in jullie AURA-project, dat gevoelde emoties in licht zal omzetten.
Dit leidt volgens mij tot nieuwe mogelijkheden om het proces van menselijke emoties te onderzoeken, vooral voor de quantified self-gemeenschap, die al druk bezig is zijn eigen beleving van de wereld te meten en te volgen.
Ik betwijfel echter of het volgen van veranderingen in iemands emotionele staat tijdens het consumeren van media, of tijdens wat dan ook, bij ‘klantbeleving’ hoort. Dit gaat niet slechts over voelen, maar over het verkennen van de grens tussen software en "wetware"-technologie die tot doel heeft het menselijk brein te verbinden en te verbeteren.
Het is interessant voor de bedrijven die er geld in steken, omdat het nieuwe ingangen biedt, niet tot ‘de klant’, maar tot mensen an sich, met al onze eigenaardigheden en heel onze lichamelijkheid. Die ingangen zijn niet per se nauwkeuriger dan wanneer je mensen gewoon vraagt wat ze denken, maar ze zullen naadloos en onopgemerkt in ons leven worden opgenomen, en deel gaan uitmaken van wie we zijn, niet van wat we doen.
Jullie vragen je af of klanten moeten kiezen tussen hun privacy aan de ene kant en het gemak van gepersonaliseerde diensten aan de andere kant. Ik denk dat die vraag de aandacht afleidt van een belangrijkere: kunnen we ons bestaan als klant scheiden van ons bestaan als burger, partner, werknemer, ouder? Onze emoties vormen een essentiële verbinding tussen onszelf en anderen, en wat we wel of niet laten zien bepaalt welke verhoudingen we kunnen aangaan, wie we kunnen zijn in verhouding tot onze maatschappelijke omgeving.
Het gekozen taalgebruik klopt hier misschien ook niet: jullie werken bij dit project alleen met vrijwilligers, maar staat het vast of alles wat ze blootgeven ook echt uit vrije wil wordt gedeeld? Jullie technologie heeft volgens proefpersonen een nauwkeurigheidgraad van 70 procent. Maar er is een diepgaand verschil van mening onder hersenspecialisten over wat we nou precies meten als we emoties bestuderen.
William James, een van de grondleggers van de psychologie, betoogde dat onze ervaring van emoties eigenlijk voortkomt uit hun lichamelijke uitdrukkingsvorm: we voelen ons verdrietig omdat we huilen en we zijn blij omdat we glimlachen, en niet andersom. Als dat waar is, zullen de sensors die jullie ontwikkelen meer toegang hebben tot het biologische aandeel in onze emoties dan wijzelf, en dat heeft gevolgen voor — onder meer — onze vrijheid om onze eigen identiteit te scheppen en onszelf te ervaren.
Dat doet me denken aan een project van Facebook waarover onlangs in de media nogat wat te doen was. Onderzoekers van het bedrijf proberen een spraak naar tekst-interface tussen brein en computer te ontwerpen, die het mogelijk moet maken dat mensen berichten op social media plaatsen, direct vanuit het spraakcentrum in hun hersens — wat dat ook moge betekenen, aangezien er geen wetenschappelijke consensus bestaat over de vraag of er wel zoiets bestaat als een ‘spraakcentrum’.
De onderzoeksleider van het bedrijf beweert dat deze techniek de privacy van mensen niet kan schenden, omdat er alleen maar woorden worden ontsleuteld die mensen toch al wilden delen door ze naar dat veronderstelde spraakcentrum te sturen. Interessant genoeg wil het bedrijf niet zeggen dat eenmaal vastgelegde gedachten van mensen niet zullen worden gebruikt voor het genereren van advertentie-inkomsten.
Jullie vragen wat er nodig is om vertrouwen in zo’n systeem te vestigen. Dat is een goede vraag, want als er vertrouwen nodig is, dan is het probleem niet opgelost. Dit is een van de ontelbare initiatieven waarin mensen wordt gevraagd commerciële partijen te vertrouwen, als die zeggen dat ze de macht die we ze over ons geven niet voor commerciële doelen zullen uitbuiten. Maar dat is de bestaansreden van tech- en mediabedrijven. Als het hun opdracht was onze autonomie en individualiteit te voeden, dan waren ze ouders, priesters of onderwijzers geweest.
De basisregel bij nieuwe technologieën is dat ze onderhevig zijn aan "function creep": ze zullen worden gebruikt voor andere doelen dan hun makers voor ogen hadden of zich zelfs maar hadden kunnen voorstellen. Een systeem als dit kan allerlei gevoelige soorten informatie meten, bijvoorbeeld hoe kinderen reageren op advertenties, of hoe volwassenen seksueel opgewonden raken tijdens de consumptie van media.
Deze informatiebronnen zijn in potentie veel beter te vermarkten dan de uitkomsten van de soorten metingen waarvoor de technologie nu wordt ontworpen. Hoe wordt de grens tussen wat mogelijk wel of niet wordt gemeten vastgesteld en nageleefd, als een technologie als deze straks misschien wel standaard in elke entertainment-apparaat zit? En nu we ons niet alleen meer vermaken met tv en bioscoop, maar ook op onze telefoons, tablets en laptops, hoe moeten we dan beslissen wanneer we gevolgd en onderzocht willen worden?
Technologie die dingen in de gaten houdt produceert data, en het hoofdkenmerk van data is dat het met de tijd meer waard wordt. Het heeft de neiging zich te vermenigvuldigen, uit te lekken en bloot te leggen. Ik weet niet zeker of we commerciële partijen moeten vertrouwen als we hun handelingen niet kunnen toetsen, want vertrouwen zonder toetsing, dat is als religieus geloven.
Met vriendelijke groet,
Linnet Taylor
TILT (Tilburg Institute for Law, Technology and Society)