AI en diversiteit: waarom ze meer gemeen hebben dan je denkt

Terwijl diversiteits- en inclusiviteitsbeleid onder druk staat wordt er steeds meer geïnvesteerd in kunstmatige intelligentie. Ogenschijnlijk hebben deze zaken weinig met elkaar te maken, maar toch zou er een verband kunnen zijn dat ook voor CHRO's relevant is.

Niemand kan het zijn ontgaan; er waait een andere wind in de Verenigde Staten sinds de inauguratie van de regering Trump. Hierbij vielen mij twee zaken op die op het eerste gezicht weinig met elkaar te maken hebben:

Inclusie gaat over het zorgen voor het bereiken van ieders volledige potentieel, waar soms een extra zetje voor nodig is

1. Het terugdraaien van diversiteit- en inclusiviteitsbeleid van de overheid. Bovendien draaien mede door de verkiezing van Trump ook grote bedrijven als McDonalds, Walmart, Boeing en Ford hun DE&I initiatieven terug. Voorlopig zie je deze ontwikkeling voornamelijk in de VS, maar wellicht waait het ook over naar Nederland.

2. De grote investeringen in kunstmatige intelligentie, onder de noemer Stargate. Er wordt de komende jaren door enkele voorlopers op het gebied van AI tenminste 500 miljard dollar geïnvesteerd in AI infrastructuur in de VS.

DE&I en bevooroordeling

Laten we beginnen bij het eerste; tijdens de inauguratie werd gesproken over het beëindigen van het bestaande overheidsbeleid op het gebied van gender (“vanaf nu hebben we nog maar twee genders”) en het creëren van een maatschappij die kleurenblind en op verdienste is gebaseerd.

Nu is dat laatste punt nastrevenswaardig, maar we weten ook dat gelijke kansen krijgen niet altijd de realiteit is. Eén van de redenen dat er DE&I-programma’s zijn, is om uiteindelijk meer gelijke kansen te creëren. Bij het wervingsproces kan er namelijk sprake zijn van (onbewuste) bevooroordeling ten nadele van vrouwen, LHBTQ+, minderheden en mensen met een fysieke of mentale beperking. Het beëindigen van deze DE&I initiatieven is daarom betreurenswaardig.

Dit moreel-ethische perspectief gaat de huidige anti-woke agenda wellicht niet overtuigen. Er is echter ook een economische invalshoek: diversiteit en inclusie dragen bij aan creativiteit en innovatie (mits aan randvoorwaarden wordt voldaan) en zijn daarmee goed voor organisaties. Het laten bestaan van bevooroordeling leidt tot het voortbestaan van suboptimale beslissingen.

AI als bondgenoot tegen bias en ruis?

De vorig jaar overleden Nobelprijs-winnende psycholoog Daniel Kahneman liet ons inzien dat mensen systematische denkfouten maken, zoals confirmation bias en vooringenomenheid, waardoor besluitvorming niet accuraat en consistent is. In zijn laatste boek “Ruis” (Engels: “Noise”) koppelen hij en zijn collega’s deze besluitvorming onder andere aan het wervingsproces, waarbij ze laten zien dat het niet alleen gaat over bias maar ook over ruis, oftewel structurele variatie in beoordelingen [1].

Zelfs experts blijken behoorlijk inconsistent te zijn, niet alleen in vergelijking met elkaar maar ook in hun eigen beslissingen. En dit geldt voor zeer belangrijke beslissingen zoals strafbepaling in rechtszaken en ook het aannemen en beoordelen van personeel.

Organisaties worden sowieso door de Europese AI Act gedwongen te investeren in AI-geletterdheid van hun personeel

Dat is waar kunstmatige intelligentie en algoritmes om de hoek komen kijken – als onverwachte bondgenoot van DE&I. De grote investeringen in AI kunnen óók worden gebruikt om algoritmes en modellen te verbeteren en daarmee HR-besluitvorming te ondersteunen [2].

Deze technologie belooft niet alleen het werk efficiënter te maken, maar ook bevooroordeling te verminderen door meer consistentie te brengen in processen. De (onbewuste) verschillen in menselijke beoordelingen, bijvoorbeeld door stemming en persoonlijke voorkeuren, kunnen worden verminderd door gebruik te maken van algoritmes.

Inzetten van AI voor DE&I

De genoemde ontwikkelingen bieden CHRO’s een kans op verbetering van bestaande HR-processen. De volgende concrete stappen kunnen worden genomen:

  • Bias verminderen: HR gebruikt AI om bias te signaleren en corrigeren in wervingsprocessen. Door de samenwerking op te zoeken met data-experts en wetenschappers kunnen AI-systemen worden verbeterd. Bovendien kan AI-software helpen om meer inclusieve vacatureteksten te creëren en zijn betere matchingsalgoritmes in staat om kandidaten te beoordelen op relevante kwalificaties en vaardigheden in plaats van irrelevante (demografische) gegevens.
  • Investeren in AI-geletterdheid: om de kansen van AI te benutten en de risico’s op bias te kunnen mitigeren dienen organisaties te investeren in hun kennis van AI.
  • Ontwerpen voor inclusie: HR gebruikt een mensgerichte aanpak bij het ontwerpen en ontwikkelen van AI en creëert hiermee de mogelijkheid voor een divers personeelsbestand en een inclusieve cultuur waarbinnen deze medewerkers hun potentieel kunnen bereiken.

Om dit potentieel te bereiken is het belangrijk om te investeren in training en samenwerking rondom AI. Organisaties worden sowieso door de Europese AI Act gedwongen te investeren in AI-geletterdheid van hun personeel. Met initiatieven zoals de AI@Work Learning Community die Pauline Weritz en ik samen met de Digital Society Institute (DSI) van de Universiteit Twente zijn begonnen proberen we hieraan bij te dragen.

AI-model voor uitstroomvoorspelling

Deze leergemeenschap brengt HR-professionals, datawetenschappers en academici samen om te leren over de (on)mogelijkheden van AI. Afgelopen week zijn we bijvoorbeeld gestart met het maken van een algoritme voor het voorspellen van uitstroom van personeel en het ontwikkelen van een internet HR-chatbot.

Tevens is het cruciaal te investeren in inclusief ontwerp van AI, waarbij gewerkt wordt met diverse datasets en ethische richtlijnen. Bovendien zijn ook minderheden betrokken bij deze ontwikkeling. Op die manier kunnen algoritmes bijdragen aan het toegankelijker maken van duurzame werkgelegenheid voor mensen met een afstand tot de arbeidsmarkt.

In een recent gestart project onder leiding van collega Jeroen Meijerink onderzoeken we o.a. op welke manier algoritmes ontwikkeld kunnen worden die rekening houden met de kwetsbaarheden van werkzoekenden. Daarbij is het cruciaal dat de werkplek waar ze uiteindelijk terechtkomen ook toegankelijk is voor medewerkers met fysieke of mentale beperkingen.

HR: voorkom nieuwe vormen van bias

Zoals we weten is het verbeteren van HR-besluitvorming door AI geen garantie, dit bereiken gaat dit niet vanzelf. Sterker nog, het risico bestaat dat bevooroordeling in dit soort algoritmes sluipt, omdat deze worden getraind op basis van bestaande, niet-diverse datasets [3]. Een AI-applicatie waarbij gebruik wordt gemaakt van een model dat is getraind op een dataset waarin vrouwen of minderheden ondervertegenwoordigd zijn zal ongelijkheden juist reproduceren. Daarmee kun je bevooroordeling zelfs automatiseren.

Het vraagt om een proactieve houding van HR en leiders om niet alleen diversiteit en inclusiviteit te bevorderen maar ook dit soort negatieve consequenties te voorkomen. HR zou bij deze AI-ontwikkelingen betrokken moeten raken om zo de mensgerichte kant te bewaken en ervoor te zorgen dat we niet de ene bias (menselijke) inruilen voor de andere, geautomatiseerde bias.

De combinatie tussen AI en diversiteit biedt kansen voor een betere en inclusievere organisatie

AI en diversiteit lijken misschien tegenpolen, maar bieden in gezamenlijkheid juist kansen voor HR. AI is niet per definitie goed of slecht. Het gaat om de manier waarop deze technologie ontwikkeld en toegepast wordt. De kracht van AI is het verminderen van menselijke vooroordelen, maar kan alleen tot wasdom komen als deze vooroordelen niet in het systeem geslipt zijn. De mensgerichte samenwerking tussen HR en AI is daarom cruciaal.

Ondanks de politieke tegenwind, voornamelijk in de VS, moeten HR-leiders de samenwerking opzoeken om zo technologie te kunnen omarmen en een meer diverse en inclusieve werkomgeving te creëren. Het gebruik van AI kan zo bijdragen aan DE&I én betere prestaties.

Wilt u meer weten over de toepassing van AI in uw organisatie, neem dan contact op via m.renkema@utwente.nl   

Bronvermelding*

[1] Kahneman, D., Sibony, O., & Sunstein, C. R. (2021). Noise: A flaw in human judgment. Hachette UK.
[2] Daugherty, P. R., Wilson, H. J., & Chowdhury, R. (2020). Using artificial intelligence to promote diversity.
[3] Köchling, A., & Wehner, M. C. (2020). Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. Business Research13(3), 795-848.

*Graag niet deze blog maar originele publicaties citeren.