Bevrijdt ‘mindful A.I.’ algoritmes van vooroordelen?

Hoe blijven AI-toepassingen zoals gezichtsherkenning en CV-scantools vrij van discriminatie op basis van vooroordelen en andere ongewenste bias?

Wereldwijd worstelen AI-experts met de gevolgen die de pandemie heeft voor hun modellen en onderliggende algoritmes. Door de pandemie zijn historische gegevens, waarmee AI-modellen zijn getraind, soms grotendeels achterhaald. We zijn er inmiddels aan gewend dat kabinet en RIVM sinds de uitbraak de corona-modellen zo ongeveer wekelijks bijstellen. 

Het is de achilleshiel van kunstmatige intelligentie: de accuratesse ervan staat of valt met de kwaliteit van de data die je ervoor gebruikt. Het is een belangrijke oorzaak van het niet uit de verf komen of domweg mislukken van veel AI-projecten. Maar er zijn nog meer hardnekkige problemen waar AI-projecten in organisaties over struikelen, schrijft Jeremy Kahn in Fortune. Het antwoord daarop zou volgens Kahn een aanpak kunnen zijn die Mindful AI genoemd wordt.

Doelbewust ontwikkelen

Kahn sprak er onder meer over met Ahmer Inam. Deze Amerikaanse AI-expert verstaat onder ‘mindful AI’: het doelbewust ontwikkelen van AI-toepassingen, waarbij tijdens de ontwikkeling en het gebruik ervan steeds het beoogde resultaat en de wijze waarop de gebruiker de AI-toepassing ervaart als uitgangspunt wordt vastgehouden. 

De term ‘mindful AI’ is geïntroduceerd door Orvetta Sampson, creatief directeur bij Microsoft, en De Kai, professor aan de University of California in Berkeley. Mindful AI heeft overigens niets te maken met mindfulness als manier om stress te lijf te gaan. 

Missie en waarden

In de praktijk komt het erop neer, dat organisaties uitsluitend met AI-toepassingen moeten beginnen vanuit een zeer weloverwogen keuze voor een specifieke AI-toepassing. Dat wil zeggen, een die aansluit bij de strategie, de missie en de waarden van de organisatie. 

Organisaties beginnen volgens Inam vaak met AI om de verkeerde redenen: omdat het management ten onrechte denkt dat het wondermiddel is om fundamentele problemen in de organisatie op te lossen, of wanhopig op zoek is naar kostenbesparingen, of louter omdat concurrenten AI ook inzetten en de angst is om achter te blijven.

In plaats daarvan zou elke toepassing van AI altijd tenminste moeten voldoen aan 3 drie criteria:

1. AI moet 'mensgericht' zijn 
Dat betekent goed nadenken over de vraag welk menselijk vraagstuk technologie moet oplossen, en ook goed nadenken over de mogelijke impact die de technologie kan hebben. Zowel op degenen die er gebruik van zullen maken – bijvoorbeeld de werknemers of de klanten van de organisatie – als degenen op wie de uitkomsten van de gebruikte software effect hebben, zoals werknemers, klanten, patiënten, burgers enzovoort.

2. AI moet betrouwbaar zijn 
Dit criterium betreft ideeën als de uitlegbaarheid en de interpreteerbaarheid van doel en werking. Maar het betreft ook de vraag of alle belanghebbenden c.q. stakeholders van de organisatie in de toepassing kunnen geloven en de overtuiging hebben dat het tot goede en wenselijke resultaten leidt.

3. AI moet ethisch zijn
Dit criterium vergt met name grondig onderzoek naar de herkomst van de data die worden gebruikt voor de ​​AI-toepassing en of deze tot objectieve resultaten leidt of bijvoorbeeld vooroordelen versterkt. Een algoritme voor gezichtsherkenning dat dezelfde keuzes maakt als een politiebeambte, sluit etnisch profileren niet per definitie uit. Dat betekent dat er ook een ethische norm gedefinieerd moet worden als uitgangspunt om het algoritme te trainen. 

Deze criteria zouden organisaties ervan kunnen weerhouden te kiezen voor een van de vele kant-en-klare AI-oplossingen en tools die op de markt beschikbaar zijn. Bij dergelijke AI-tools is het vaak lastig om voldoende inzicht te krijgen in de herkomst van de data die zijn gebruikt om de modellen te trainen. 

Daardoor kan het ook lastig zijn om in te schatten waar de zwakke punten van een model verwacht kunnen worden. De risico’s hiervan zijn door onderzoekers van MIT en Stanford onder meer aangetoond voor tools die gebruik maken van gezichtsherkenningssoftware. Onderzochte software bleek een nauwkeurigheid van 77% te hebben in plaats van de door de leverancier geclaimde 97%. 

Openbare datasets

Een bekend voorbeeld hiervan is de dataset “Diversity in Faces”, die IBM in januari 2019 als een open-source dataset van 1 miljoen menselijke gezichten beschikbaar stelde. De bedoeling hiervan was om een alternatief te bieden voor de vele openbare datasets van gezichten – om gezichtsherkenningssystemen te bouwen – die onvoldoende afbeeldingen van gekleurde mensen bevatten. 

Korte tijd later werd bekend dat IBM de dataset had samengesteld met portretten uit Flickr-accounts, zonder de geportretteerden daarvoor om toestemming te vragen. Dus partijen die de IBM-dataset hadden gebruikt, kregen er een ander ethisch probleem terug: inbreuk op de privacy. 

Tijdrovend

Een ander voordeel van het toepassen van ‘mindful AI’ is dat projecten nauwelijks nog kunnen worden overhaast. Het volgen van een mensgericht ontwerpproces en het doordenken van alle mogelijke vragen rondom betrouwbaarheid en ethiek is tijdrovend. Het goede nieuws echter is volgens Kahn, dat het uiteindelijke resultaat beter zal beantwoorden aan de doelstellingen en wensen van alle stakeholders dan een systeem dat snel operationeel moet zijn.

Om aan de drie criteria te kunnen voldoen, is het essentieel om bij het AI-project mensen te betrekken met heel verschillende perspectieven, zodat een grote mate van diversiteit gegarandeerd is. Zowel wat betreft ras, geslacht en persoonlijke achtergrond als opleidingsniveau, leeftijd, functie en rol binnen de organisatie. Een interdisciplinair samengestelde projectgroep is hiervoor ideaal. 

Google en Facebook voornamelijk 'wit'

In de praktijk is dat niet makkelijk haalbaar. Teams die AI-software bouwen missen nogal eens de gewenste diversiteit, wat zeker bij de grote techbedrijven een hardnekkig probleem is. Zo meldde Google dat in 2019 slechts 5,5 procent van de nieuwe medewerkers zwart was, vergeleken met 4,8 procent het jaar ervoor. Facebook heeft het aantal zwarte medewerkers sinds 2014 weliswaar bijna verdubbeld, maar zij maken nog altijd niet meer dan 3,8 procent van het totale personeelsbestand uit.

Los daarvan blijft het gebruik van AI ook bij het toepassen van ‘mindful AI’ een proces van continu toetsen en bijstellen, wat inherent is aan het toepassen van modellen. Telkens als de aannames voor modellen niet matchen met de werkelijkheid, moet de aanpak weer worden bijgesteld. De modellenmakers van het RIVM doen niet anders. De manier waarop de corona-app met vallen en opstaan vorm krijgt, maakt overigens wel duidelijk, dat ‘mindful AI’ makkelijker gezegd is dan gedaan.

HR Expo is the event to boost your network, skills and knowledge. Learn from the C-suite, get that 1-on-1 advice from experts and peers and get to know the exhibitors. We welcome you to join us for a day of learning and networking. HR professionals register for free.