Werkgever altijd zelf verantwoordelijk bij discriminatie met algoritmes
Werkgevers kunnen de verantwoordelijkheid hiervoor dus niet afschuiven op het algoritme of de softwareleverancier. Dit blijkt uit een nieuwe publicatie van het College voor de Rechten van de Mens over het gebruik van algoritmes bij werving en selectie in de relatie tot de gelijkebehandelingswetgeving.
Het onderzoek ‘Recruiter of computer?’ is een vervolg op een literatuurstudie uit 2020, toen deed het College onderzoek naar de risico’s op discriminatie bij algoritmes die worden ingezet bij sollicitaties.
Het nieuwe onderzoek concentreert zich op vier aandachtspunten waar werkgevers zich bewust van moeten zijn als zij voor werving en selectie gebruik willen maken van algoritmes.
Algoritmes kunnen zowel direct als indirect verboden onderscheid maken. Als ze bijvoorbeeld selecteren op gronden van leeftijd, geslacht of ras, dan is dat direct verboden onderscheid.
Algoritmes kunnen ook indirect discrimineren, geeft het College aan. Bijvoorbeeld als een uitzendbureau alleen maar studenten werft. Er is dan geen direct onderscheid op leeftijd, maar indirect wel, aangezien de meeste studenten jong zijn.
Voor het zogenaamde gelijkebehandelingsrecht maakt het niet uit of de werkgever opzettelijk discrimineert of niet. Als het algoritme discrimineert, dan is de werkgever verantwoordelijk.
Dat is ook het geval als een zelflerend algoritme aanvankelijk niet discrimineerde, maar in de loop van de tijd wel verboden onderscheid is gaan maken, zonder dat de werkgever of de algoritmebouwer zich hiervan bewust zijn, vervolgt het College.
Juist omdat het bij een algoritme lastig is om te achterhalen of er sprake was van discriminatie is het van belang dat werkgevers zich bewust zijn van hun verantwoordelijkheid, zo klinkt de waarschuwing.
Het College is zich ervan bewust het voor werkgevers lastig is om vast te stellen waarom bepaalde kandidaten zijn afgewezen. “Nog lastiger is voor werkgevers om verboden onderscheid te ontdekken of te vermijden. Het kan voor werkgevers een flinke klus zijn om zich voor een algoritme te verantwoorden.”
In specifieke situaties is indirect onderscheid echter wel toegestaan. Het uitsluiten van kandidaten die geen goed Nederlands spreken is in bepaalde gevallen uitlegbaar. Bijvoorbeeld als de functie vraagt dat de kandidaat veel contact onderhoudt met Nederlandse klanten.
Om ervoor te zorgen dat algoritmes uitlegbaar zijn, is een inzichtelijke, controleerbare en systematische procedure een voorwaarde. Dat is iets waar het College in zijn oordelen over offline sollicitaties altijd naar kijkt.
Dit betekent volgens het College dat sollicitanten van tevoren weten hoe de procedure verloopt, wat de selectiecriteria zijn, waarom sommige mensen worden afgewezen en dat de procedure voor alle kandidaten in principe hetzelfde verloopt.
AIs een procedure niet inzichtelijk, controleerbaar en systematisch uitgevoerd wordt, dan draagt dit bij aan het vermoeden dat er sprake is van discriminatie.