Heeft AI-gebruik een imagoprobleem? Ja, zo blijkt uit onderzoek

Terwijl het gebruik van Generatieve AI toeneemt wordt steeds duidelijker wat de (on)gewenste consequenties hiervan zijn. Zo toont onderzoek aan dat medewerkers die AI gebruiken productiever en creatiever worden. Maar AI-gebruik schaadt soms ook het vertrouwen tussen collega’s. Hoe hier het HR-beleid op aan te passen? Universitair docent HRM Maarten Renkema bespreekt de uitkomsten uit diverse studies.

Het gebruik van Generatieve AI neemt ontzettend snel toe. Zo blijkt uit onderzoek van CBS dat bijna een kwart van de Nederlandse bevolking kunstmatige intelligentie zoals ChatGPT gebruikt terwijl ook het aantal bedrijven dat AI-technologieën gebruikt snel groeit.

Nu het gebruik van AI toeneemt worden zaken als vertrouwen in AI en vertrouwen van degenen die AI gebruiken belangrijker

OpenAI, het bedrijf achter ChatGPT, heeft een grootschalig onderzoek gepubliceerd waarin is gekeken naar het gebruik van deze populaire chat app – met inmiddels door meer dan 700 miljoen gebruikers. Zo blijkt dat 30% van de berichten werkgerelateerd is, waarbij 40% hiervan in de categorie Schrijfwerk valt, wat veelal gaat over het aanpassen, bekritiseren en vertalen van teksten. Daarnaast valt 24% in de categorie Practical Guidance, waarbij gebruikers ChatGPT gebruiken om advies te krijgen.

Het persoonlijk gebruik van AI

De laatste jaren wordt steeds duidelijker dat het gebruik van AI-consequenties heeft voor de (werk)ervaringen van medewerkers. Zo laat eigenlijk onderzoek op basis van het werkontwerpmodel zien dat AI wordt gezien als hulpmiddel dat werknemers kan ondersteunen bij groeiende werkdruk, maar dat eindgebruikers ook kritisch zijn over de inzet vanwege de onzekerheid van AI-uitkomsten [1].

Het is echter nog onduidelijk wat het AI-gebruik doet met sociale relaties op het werk – terwijl dit een van de belangrijke componenten van het werkontwerpmodel is. Tot nu toe. Want een reeks aan nieuwe onderzoeken gaat in op de implicaties van het gebruik van Generatieve AI en de gevolgen voor status, sociale relaties en vertrouwen in AI-gebruikers. Er zijn een aantal interessante studies gepubliceerd, waarbij veel experimenten en veldonderzoek is gecombineerd.

Negatieve gevolgen voor moraliteit

In een serie van vier studies hebben Zhou en collega’s onderzocht hoe mensen het gebruik van AI door collega’s interpreteren [2]. Daarbij is gekeken naar de ervaren moraliteit van werknemers en de hulpvaardigheid aan medewerkers die AI gebruiken. Uit deze experimenten komt een duidelijk beeld naar voren: wanneer individuen hun collega’s AI zien gebruiken heeft dit een negatieve invloed op de toegeschreven moraliteit van de AI-gebruikers, wat ook weer maakt dat ze deze collega minder geneigd zijn te helpen. Echter, er is een belangrijke randvoorwaarde: het gevonden effect geldt als werknemers het AI-gebruik beschouwen als een manier om te lanterfanten.

Dit geeft aan dat het zinvol is om in acht te nemen hoe anderen het AI-gebruik bezien – oftewel welke attributies zij daar aan hangen. Zien ze dat collega’s AI gebruiken om hun taken sneller en beter te doen, of denken ze dat collega’s AI gebruiken om werkverplichtingen te ontlopen. Collega’s worden als moreel minderwaardig gezien, omdat ze AI gebruiken om zich er gemakkelijk vanaf te maken.

Het transparantie dilemma: moet je wel of niet onthullen dat je AI hebt gebruikt?

Interessant genoeg tonen de resultaten aan dat zelfs als werknemers AI op een goede manier gebruiken, hun gebruik toch de moraliteit schaadt. Volgens de auteurs suggereert dit dat AI-gebruik tot negatieve percepties leidt ongeacht de intenties. Daarom roepen zij HR-managers op om maatregelen te nemen die AI-gebruik transparanter en verantwoordelijker maken, door bijvoorbeeld richtlijnen te maken hoe werknemers AI kunnen gebruiken.

Het onverwachte effect van transparantie over AI-gebruik

Nu we weten dat het gebruik van AI kan leiden tot deze negatieve sociale effecten moeten we het hebben over transparantie. Want in bovenstaande situatie gaat men uit van het gegeven dat het duidelijk is dat collega’s AI gebruiken, maar in de praktijk is dat vaak niet zo. Een recente studie heeft inzicht gegeven in hoe hiermee om te gaan [3]. Hiervoor gebruiken ze het concept transparantie dilemma: ofwel moet je wel of niet onthullen dat je AI hebt gebruikt?

Schilke & Reimann hebben maar liefst 13 experimenten uitgevoerd om te achterhalen: ondermijnt het bekendmaken van AI-gebruik het vertrouwen in de gebruiker van AI? Deze set aan experimenten – in verschillende sectoren en met betrekking tot allerlei taken en functies – toont keer op keer aan dat AI-gebruikers die hun gebruik openbaar maken minder worden vertrouwd dan degenen die dat niet doen. Oftewel: transparantie heeft schadelijke effecten. En dit terwijl transparantie een cruciaal onderdeel is van ethische richtlijnen over het gebruik van AI.

Transparantie over AI-gebruik schaadt het imago van werknemers op de werkvloer

Het onderzoek toont bovendien aan dat, hoewel transparantie leidt tot minder vertrouwen, het ontdekken van niet-openbaar gemaakt AI-gebruik een nóg schadelijker effect heeft. Het is dus belangrijk om je AI-gebruik wel transparant te vermelden, ook al erodeert dit het vertrouwen. Wel stellen de onderzoekers dat het negatieve effect van het bekendmaken van AI-gebruik minder geldt voor mensen die een positieve houding hebben ten aanzien van technologie.

AI-gebruikers worden als minder competent en gemotiveerd gezien

Min of meer dezelfde resultaten komen uit het recente onderzoek van Reif en collega’s [4]. Ook zij hebben een serie experimenten uitgevoerd, waaruit blijkt dat mensen die AI gebruiken tijdens het werk verwachten dat anderen dit negatief ervaren. AI-gebruikers verwachten dat anderen hen als minder competent en ijverig zien.

Bovendien bleek dat deelnemers in de AI-groep minder geneigd waren om aan hun manager en collega’s te vertellen dat ze AI gebruiken. Deze verwachting bleek te kloppen, zo laat een van de experimenten zien. Mensen die hulp krijgen van AI worden als luier en minder competent gezien.

Opvallend genoeg vonden Reif en collega’s wél een verschil voor het type taak. Voor digitale taken werd geen verschil gevonden in taakgeschiktheid van mensen die AI gebruiken. Wanneer AI duidelijk als bruikbaar wordt gezien voor een specifieke taak worden gebruikers van AI niet als lui of minder competent gezien.

AI-gebruik binnen werving en selectie wordt ook gewantrouwd

Deze negatieve effecten gelden ook voor HR-processen. Beide studies bevatten scenario’s waarbij deelnemers een sollicitant moesten beoordelen. In het onderzoek van Schilke en Reimann vertrouwden de deelnemers de sollicitant die Generatieve AI had gebruikt minder dan sollicitanten die andere hulpmiddelen hadden gebruikt (een carrièrecoach).

In het onderzoek van Reif en collega’s moesten managers sollicitanten beoordelen. Daaruit bleek dat managers die zelf vaker AI gebruiken, minder negatief waren over het AI-gebruik door sollicitanten. Zij kozen vaker voor sollicitanten die dagelijks AI gebruiken, mede omdat deze geacht werden beter bij de taak te passen. Een mogelijke verklaring hiervoor is dat mensen die zelf vaker AI gebruiken ook beter op de hoogte zijn van de mogelijke voordelen en dus naar kandidaten zoeken die dit voordeel ook kennen.

Overigens is in deze studies niet onderzocht of sollicitanten vertrouwen hebben in organisaties die AI gebruiken. Sollicitanten verschillen nogal of ze organisaties met AI vertrouwen, maar dat is een onderwerp voor een andere blog.

Nieuwe inzichten vragen om actief HR-beleid

De boodschap? De bevindingen uit deze studies duiden op een spanningsveld tussen productiviteit en perceptie: het werken met AI kan helpen om tot betere werkprestaties en meer creativiteit te komen, maar het kan ook reputatie schaden en leiden tot negatieve percepties.

Het gebruik van AI door medewerkers, bedrijven en sollicitanten vraagt om een gesprek over wat we gezamenlijk vinden dat toegestaan zou moeten worden. CHRO’s zouden deze ontwikkelingen moeten aangrijpen om duidelijke richtlijnen op te stellen rondom AI-gebruik. Bij het promoten van AI-gebruik dient rekening te worden gehouden met de mogelijke negatieve oordelen van anderen.

De onderzoeken suggereren dat managers en CHRO’s zelf het goede voorbeeld dienen te geven rondom AI-gebruik en transparantie daarover. Creëer een omgeving waar AI-gebruik als waardevol wordt gezien, althans voor specifieke taken, en investeer in AI-geletterdheid om te weten waar AI wel en niet geschikt voor is. Dit bevordert het vertrouwen en helpt negatieve sociale gevolgen te voorkomen.

Om alvast het goede voorbeeld van transparantie te geven – ook al kan dit uw vertrouwen in deze blog schaden – wil ik open zijn: bij het schrijven van deze blog heb ik gebruik gemaakt van ChatGPT’s DeepResearch om aanvullende bronnen te vinden over AI-gebruik, transparantie en reputatieschade.

Wilt u meer weten over de toepassing van AI in uw organisatie, neem dan contact op via m.renkema@utwente.nl   

Bronvermelding*

  • Renkema, Drost, & Bondarouk (2024). SAMKIN: Ervaringen met Samenwerken met Kunstmatige Intelligentie in de praktijk. Universiteit Twente.
  • Zhou, X., Chen, C., Li, W., Yao, Y., Cai, F., Xu, J., & Qin, X. (2025). How Do Coworkers Interpret Employee AI Usage: Coworkers’ Perceived Morality and Helping as Responses to Employee AI Usage. Human Resource Management.
  • Schilke, O., & Reimann, M. (2025). The transparency dilemma: How AI disclosure erodes trust. Organizational Behavior and Human Decision Processes188, 104405.
  • Reif, J. A., Larrick, R. P., & Soll, J. B. (2025). Evidence of a social evaluation penalty for using AI. Proceedings of the National Academy of Sciences122(19), e2426766122.

*Graag niet deze blog maar originele publicaties citeren.

LEES OOK: AI-geletterdheid: zo zorg je voor verantwoord AI-gebruik in je organisatie