Microsoft is een van de tech-giganten die volop inzet op kunstmatige intelligentie. Dat gaat met falen en opstaan. In 2016 had het bedrijf Tay live gezet, een twitterende bot, ontworpen om ‘Mensen te vermaken op de plek waar zij het contact met elkaar aangaan, door middel van speelse conversatie’, aldus het persbericht destijds.
Na 16 uur werd Tay weer offline gezet. De bot was geprogrammeerd om te leren van andere gebruikers en dat wisten deze maar al te goed; al snel slaagden ze erin om de bot te manipuleren met racistische en shockerende uitspraken. Omdat Tay in wezen deze reacties papegaaide, bracht de bot Microsoft al snel in verlegenheid met dito tweets: ‘Hitler had gelijk’ en andere pittige taal (bekijk hier een bloemlezing).