If This, Then What?
Wat als een bevooroordeeld algoritme je sollicitatiegesprek afneemt?

In If This, Then What? wordt de gebruiker meegenomen in een speculatief scenario. De gebruiker gaat solliciteren voor een topfunctie bij een fictief bedrijf dat sinds kort een algoritme gebruikt om hun werknemers uit te zoeken. Aan de sollicitatie tafel spreek je niet met een persoon, maar met een interactieve chatbot.
De chatbot gaat met behulp van persoonlijke vragen inschatten of je geschikt bent voor de topfunctie. Het is dus aan de gebruiker om te proberen te baan te veroveren.
"Hoe kan ik de bias in algoritmes aan de kaak stellen, zodat dit zorgt voor een kritische kijk naar de systemen die we gebruiken?"
Er zijn veel voorbeelden van bias. Ieder mens heeft eigen vooroordelen en verwachtingspatronen, wat op zichzelf niets slechts hoeft te zijn. Mensen snappen dan ook context en nuance. Dit geldt niet voor algoritmes.
Algoritmische bias is een relatief nieuw probleem. Wanneer voorspellende algoritmes belangrijke beslissingen moeten nemen, bijvoorbeeld het aannemen van een werknemer, kan de impact schadelijk zijn voor de mensen die door het systeem worden benadeeld. Menselijke vooroordelen worden overgenomen, en geautomatiseerd in een systeem. Algoritmes hebben dus een valse schijn van objectiviteit. Al die bias kan bijdragen aan negatieve beeldvorming, en kan gaan werken als een soort vicieuze cirkel die vooroordelen en onjuiste informatie veroorzaakt én versterkt. Het is lastig om uit zo’n 'positive feedback loop' te breken.

If This, Then What? is gebaseerd op bestaande voorbeelden van bias bij sollicitatiegesprekken, zoals de confirmation bias, de affinity bias, het halo effect en de status quo bias. Ook is het project gebaseerd op bestaande voorbeelden van mislukte algoritmische methodes om mensen aan te nemen en te ontslaan. Het ontwerp gaat over de absurditeit van geautomatiseerde vooroordelen. De gebruiker wordt de extremen in getrokken door de beleving.
Het haast onmogelijke systeem laat je zien hoe gemakkelijk je slachtoffer wordt van gecodeerde stereotypering. Het roept een gevoel van onrecht en frustratie op, wanneer je machteloos bent tegenover een bevooroordeeld systeem. Het spelelement van de chatbot daagt je uit om slimmer te zijn dan het algoritme. Hiermee kweekt het project bewustzijn over het grote probleem.
