‘Algoritmes zijn zo betrouwbaar als je ze zelf maakt’

De route naar succesvol datagedreven werken in HR
Bij de groeiende kritiek op algoritmes, legt Irma Doze uit waarom data juist onze redding is, en hoe je algoritmes wel moet gebruiken.

 Durft u kunstmatige intelligentie in te zetten om het kaf van het koren te scheiden in een sollicitatieprocedure, of voor talentmanagement? Best eng, maar zonder die data doen we het absoluut niet beter.

De resultaten logen er niet om toen het Amerikaanse marketingbedrijf Dialog Direct algoritmes inzette om nieuwe werknemers binnen te halen. Het bespaarde 75% aan interviewtijd en de retentie nam toe met 7 procentpunt. Zo bespaarde de organisatie miljoenen dollars.

Ook de Franse glasproducent Saint-Gobain (met wereldwijd 180.000 medewerkers) plukte de vruchten van de inzet van algoritmes: zij spotten met behulp van een algoritme diverse interne talenten die anders buiten beeld gebleven zouden zijn.

Onterecht afgewezen

Hoe mooi die voorbeelden ook klinken, toch roepen algoritmes de laatste tijd veel discussie op. Want hoe eerlijk en rechtvaardig zijn ze nou eigenlijk? Wat als kandidaten onterecht worden afgewezen of gepromoot, alleen maar op basis van data?

We lezen steeds vaker dat algoritmes onbetrouwbaar zouden zijn. Uit onderzoek blijkt dat HR-functionarissen wel HR-analytics willen gebruiken, maar tegelijkertijd grote reserves hebben. Want ja zijn algoritmes eigenlijk wel zoveel beter dan wij mensen? Of juist nog erger?

De verkeerde beslissing

Ik snap het als u het lastig vindt om op data te vertrouwen. En terecht, want een algoritme is niet 100% betrouwbaar. Maar dat zijn onze hersenen ook niet. Integendeel, vraag een groep van 25 mensen eens hoe groot de kans is dat 2 van hen op dezelfde dag jarig zijn.

Ze zullen inschatten dat die kans héél klein is, maar in werkelijkheid is die kans bijna 60%. Op het gebied van statistiek laat onze intuïtie ons dus vaak in de steek. Dat toont Nobelprijswinnaar Daniel Kahneman aan in zijn boek ‘Ons feilbare denken’.

Bij het maken van een beslissing laten we ons deels sturen door vooroordelen. Stel, een sollicitant heeft een 6 als eindcijfer op zijn diploma. Je weet dat een cijferlijst niet veel zegt over iemands talent als werknemer, maar je hersenen registreren dit toch als iets negatiefs.

Of je nu wilt of niet, tijdens het sollicitatiegesprek spookt die 6 door je hoofd. Onze hersenen zoeken automatisch naar bevestiging. Je ziet wat je verwacht te zien en alle signalen die dat gevoel tegenspreken, negeer je.

Wat stop je er in?

Een algoritme zou dat probleem niet hebben. Data heeft geen last van zelfoverschatting of emoties. Data is neutraal. Het is de combinatie met menselijk handelen die de technologie goed of slecht maakt. Er zijn namelijk 2 kenmerken waar je bij een algoritme rekening mee moet houden:

  1. Wat je er niet in stopt, komt er ook niet uit
  2. Wat je er in stopt, komt er ook uit 

Laten we beginnen met wat je er in stopt. Stel, je bent op zoek naar een nieuwe programmeur en je laat algoritmes zoeken naar de juiste kandidaat. Leeftijd en geslacht vind je niet relevant, dus die variabelen neem je niet mee.

Wat stop je er dan wel in? Je zoekt talent en je wilt dus weten hoe goed de kandidaat in zijn werk is. Daarom laat je algoritmes stukjes programma analyseren die de kandidaat geschreven heeft.

Programmeertalent te pakken

Ook al weet je na deze exercitie niets van het geslacht, de leeftijd of het diploma van de kandidaat die hieruit rolt, één ding weet je wel zeker: je hebt een programmeertalent te pakken! Je neemt hem dus aan.

Maar wat blijkt na een tijdje: deze collega past eigenlijk helemaal niet in het team. Daar heeft het algoritme geen rekening mee gehouden, want: wat je er niet in stopt komt er ook niet uit. Die variabele (match met het team) had je dus ook mee moeten nemen.

Het analyseproces begint dus met een belangrijk stukje menselijk handelen: zorgen dat het systeem met de juiste variabelen begint. Ga met elkaar om de tafel zitten en brainstorm vrijuit over alle variabelen die belangrijk zouden kunnen zijn.

Denk breed en creatief, het mogen honderden variabelen zijn. Daarna is het de beurt aan de data: die analyseert op basis van statistiek welke variabelen de meeste impact hebben op wat je met het algoritme wilt voorspellen.

HR Expo is the event to boost your network, skills and knowledge. Learn from the C-suite, get that 1-on-1 advice from experts and peers and get to know the exhibitors. We welcome you to join us for a day of learning and networking. HR professionals register for free.

Het verleden voorspelt de toekomst

Maar ook aan het einde van de rit komt menselijk handelen om de hoek kijken. Want ook bij de data die ‘er uit komt’, loop je tegen een probleem aan. Algoritmes baseren hun voorspelling altijd op data uit het verleden. Die oude data is door mensen gegenereerd. En mensen zijn bevooroordeeld.

Neem de programmeur in kwestie. Misschien is het wel zo dat vrouwen net een andere programmeerstijl hebben dan mannen. En dat jij in het verleden meer mannen in dienst had dan vrouwen.

Dan wordt het een self fulfilling prophecy: de programmeerstijl die de data als ‘goed’ beoordeelt is vooral gebaseerd op de stijl van mannen. Dat betekent dat de data onbewust toch op sekse discrimineert. De data borduurt voort op menselijke keuzes uit het verleden.

Finetunen

Wat moeten we daar mee? Denk eens aan de automatische piloot van een vliegtuig – één en al algoritmes. De piloot vertrouwt daar in principe blind op. Maar als zijn intuïtie zegt dat de meters kapot zijn, zal hij toch echt wel zelf aan het stuur moeten trekken.

Zo zullen wij dat ook moeten doen. Belangrijk om voor ogen te houden is daarom: automatiseer niet meteen volledig maar blijf zelf checken. Wees kritisch. Analyseer de data, toets de algoritmes op integriteit.

Evalueer de resultaten, bekijk ook de kandidaten die het algoritme niet door heeft laten gaan. Kom je er achter dat de data onbewust toch discrimineert? Ga dan na hoe dat komt. Dan kun je het algoritme aanpassen, zodat dit in de toekomst niet meer voorkomt.

Eerlijker en betrouwbaarder

Door veelvuldig gebruik van algoritmes en analyses daarop kunnen we ze dus steeds verder finetunen. Zo worden ze nog beter, eerlijker en betrouwbaarder.

Nu al selecteren algoritmes een stuk eerlijker en rechtvaardiger dan het menselijk brein. Met de weinige discriminatie die er nog wel in zit, gaan we heel bewust om. We evalueren, analyseren, checken en toetsen.

Iets wat bij menselijke beslissingen vaak niet eens wordt gedaan. Voorheen waren we dus onbewust onbekwaam. Nu zijn we in elk geval bewust, en meestal ook nog bekwaam.

Irma Doze is data- en analytics-expert en co-auteur van het boek “Data-Driven HR: Creating Value with HR Metrics & HR Analytics”