Digitaal toezicht op werknemer nog onder de maat
Surveillancesoftware koppelt het observeren van mensen aan het beïnvloeden van hun gedrag. De technologie is niet alleen interessant voor politiediensten, maar ook voor de werkgever die met een sollicitatietool de beste mensen wil aannemen.
De waarschuwingen zijn er ook, schrijft het Ratheneu Instituut in een publicatie. Het Ratheneu Instituut doet onderzoek naar de impact van wetenschap, innovatie en technologie op de samenleving.
De publicatie verwijst naar de Europese Commissie die een conceptverordening heeft opgesteld voor een verbod op het realtime biometrisch identificeren van mensen op straat door de politie. Ook voor andere gevaarlijke vormen van kunstmatige intelligentie zou er een verbod moeten komen. De gevaren van surveillancetechnologie zijn allang niet meer denkbeeldig.
Surveillancetechnologie heeft nog een tweede probleem: de maatschappelijke opbrengst valt vaak flink tegen. Surveillerende computers beloven veel, maar bewijs dat deze beloftes worden waargemaakt, is er veelal niet.
Het Ratheneu Instituut stelt de vraag of surveillancesoftware überhaupt de prijs waard is, ook als de inbreuk van rechten te overzien is.
Dat de experts er nog niet over uit zijn hoe goed politieke micro-targeting werkt, is niet verrassend. Menselijke keuzes zijn complex en worden door vele variabelen beïnvloed. Om het technisch te formuleren: de probleemruimte is enorm groot.
Duizenden kleine en grote factoren sturen de keuzes die we maken en het gedrag dat we vertonen, van onze genetische opmaak tot ons maandagochtendhumeur. Wat onze keuzes precies bepaalt, is moeilijk te voorspellen, en daarom moeilijk te beïnvloeden.
Die complexiteit speelt in veel contexten waarin surveillancetechnologie wordt ingezet: van het voorspellen van onze commerciële keuzes tot het inschatten van arbeidssucces.
Het Ratheneu Instituut waarschuwt dat mensen die zich bekeken voelen hun gedrag aanpassen, wat een nieuw veiligheidsrisico inhoudt.
Digitale systemen kunnen gehackt worden. Gevoelige zaken die op het werk besproken worden, komen daardoor op straat.
Ook tast surveillancetechnologie veelal onze autonomie aan. Eigen observaties en analyses worden beïnvloed, en soms vervangen door die van een computer. Als de computer bepaalt welke kandidaten een uitnodiging krijgen voor een sollicitatiegesprek, ontlast hij een werkgever, maar verkleint hij diens autonomie om zelf te kiezen. Bovendien moet de sollicitant in het keurslijf van het AI-systeem laten zien wie hij of zij is en wat hij kan.
Zonder zekerheid of surveillancesoftware werkt, kan het gebruik ervan schade opleveren. Een leidinggevende kan op basis van een digitaal samengesteld advies de verkeerde kandidaat aannemen
Dit betekent niet dat we alle surveillancetoepassingen maar overboord moeten gooien, zo nuanceert het Ratheneu Instituut. “Het betekent wel dat we ze kritisch en zorgvuldig op maatschappelijke meerwaarde moeten beoordelen. Surveillance is alleen de moeite waard als het goed werkt, en voldoende maatschappelijke opbrengst met zich meebrengt.”
Als AI-systemen het oordeelsvermogen aanscherpt zijn ze van harte welkom, zo concludeert de publicatie. “Maar we moeten niet op voorhand denken dat bestaande praktijken minder succesvol zijn dan geautomatiseerde. Het omgekeerde kan zomaar het geval zijn.”