De stille risico’s van AI-tools in HR – en hoe je ze voorkomt

70% van de HR-professionals maakt gebruik van AI zo blijkt uit benchmarkonderzoek van Brightmine. AI-tools geven je snel antwoord en kunnen bijdragen aan efficiënt werken. Toch brengt verkeerd gebruik van AI grote (juridische) risico’s met zich mee.

In dit artikel delen we wat veel HR-teams niet weten over AI-tools, maar wat wél heel belangrijk is om compliant te werk te gaan. Inclusief tips om wél verantwoord om te gaan met AI.

Hoe werken AI-tools als ChatGPT en Gemini? 

Voor we verder ingaan op de risico’s is het belangrijk om te begrijpen hoe de meest gebruikte AI-tools werken. Zo kun je zelf de afweging maken of je hier als organisatie gebruik van wil maken.

ChatGPT, net als systemen als Gemini en Copilot, is een Large Language Model (LLM), een specifieke toepassing van AI die getraind is om met taal te werken.

Je kunt een LLM zien als een grote digitale bibliotheek die is getraind om taalpatronen te herkennen. Het model heeft miljarden teksten ‘gelezen’ (boeken, artikelen, websites) en geleerd hoe woorden en zinnen samenhangen. Daardoor kan het nieuwe teksten genereren: van simpele antwoorden tot complete rapporten. Oftewel, een AI-assistent. Deze tools ‘begrijpen’ taal niet echt, maar voorspellen welk woord waarschijnlijk het volgende is in een zin. Een beetje zoals  autocorrect werkt op je smartphone.

Wat HR-teams niet weten over de betrouwbaarheid van AI-tools

Uit recent onderzoek (Semrush) blijkt dat de antwoorden voor het grootste gedeelte zijn gebaseerd op content uit Reddit, Wikipedia en Youtube. Dit zijn kanalen waar gebruikers alles mogen plaatsen, zonder controle of check van een expert. Je kunt je voorstellen dat het gebruik van dit soort tools voor HR-informatie niet zo betrouwbaar is als je misschien dacht. Ook zijn persoonsgegevens niet beschermd in open AI-tools als ChatGPT. En dat kan weer gevolgen hebben vanuit de AVG.

In onderstaande afbeelding zie je de bronnen die ChatGPT gebruikt bij het genereren van een antwoord op je vraag.

Belangrijke juridische aandachtspunten bij gebruik AI-tools

Fouten zijn snel gemaakt als HR-teams te veel in handen leggen van AI. Soms met grote gevolgen voor de organisatie. Houd altijd rekening met deze juridische risico’s:

  • Privacy en gegevensbescherming: verwerk je persoonsgegevens in open AI-tools? Zonder duidelijke toestemming of goede beveiliging kan dit leiden tot overtreding van de AVG. Verwerk dus alleen persoonsgegevens met een geldige grondslag. Transparantie en menselijke controle zijn verplicht. Ook de veiligheid van de systemen wordt steeds belangrijker, omdat de systemen steeds meer data van je personeel bevatten. Data-security wordt dus nog belangrijker dan het al was.
  • Discriminatie en bias: AI kan onbewust historische vooroordelen overnemen, waardoor bepaalde groepen systematisch worden benadeeld bij selectie of beoordeling. Zorg daarom altijd voor menselijke validatie en laat AI ondersteunen, niet beslissen.
  • Arbeidsrechtelijke fouten: verkeerde juridische informatie, fouten in contracten en onjuiste clausules kunnen leiden tot arbeidsconflicten en rechtszaken, met bijbehorende financiële gevolgen.
  • Gebrek aan transparantie: AI-beslissingen zijn soms een ‘black box’. Het niet kunnen uitleggen van keuzes kan juridische problemen veroorzaken.

Hoe ga je als HR-team wél verantwoord om met een AI-assistent? Onze handreikingen

  • Train je team in AI-geletterdheid: Zorg dat het team begrijpt wat AI wel en niet kan, hoe algoritmes werken, en wat de juridische en ethische aandachtspunten zijn. Denk aan trainingen over bias, datagebruik en verantwoord toepassen.
  • Stel een gedragscode AI op: leg vast welke AI-tools je mag gebruiken, voor welke doeleinden en onder welke voorwaarden. Bepaal ook wanneer menselijke tussenkomst verplicht is en hoe medewerkers worden geïnformeerd.
  • Zorg voor toezicht en documentatie: houd overzicht over welke AI-toepassingen actief zijn binnen HR.
  • Documenteer per tool: doel, datastromen, gebruiksfrequentie en toetsingsmomenten. Dit versterkt transparantie en naleving. Beoordeel regelmatig op ethiek, inclusie en risico’s
  • Organiseer periodieke evaluaties van AI-gebruik: sluit het gebruik nog aan bij de waarden van de organisatie? Wordt bias voorkomen? Zijn medewerkers nog betrokken en geïnformeerd?
  • Overweeg om alleen gebruik te maken van een betrouwbare juridisch geverifieerde AI-tool (geen LLM dus!) die speciaal is ontwikkeld voor HR-teams. Hieronder lees je meer over de nieuwe AI Assist van Brightmine.

De oplossing van Brightmine: een juridisch geverifieerde AI Assist (nieuw!)

AI Assist is de nieuwste geïntegreerde AI-tool binnen het Brightmine HR & Compliance Center. De antwoorden die AI Assist geeft zijn gebaseerd op meer dan 20.000 actuele gevalideerde bronnen, geschreven door arbeidsrechtjuristen en HR-experts. De informatie wordt dagelijks geüpdatet volgens de laatste wet- en regelgeving.

Met Brightmine AI Assist heb je:

  • Binnen een paar seconden antwoord op HR- en compliancevragen vanuit één betrouwbare bron (i.p.v. onbetrouwbare antwoorden van Reddit en Wikipedia).
  • Een AVG-proof oplossing. Jullie delen persoonsgegevens niet meer in open tools.
  • Minder risico’ HR-teams maken minder snel juridische fouten door verkeerde bronnen.
  • Meer tijd voor strategische vraagstukken. AI Assist ondersteunt je team in het operationele uitzoekwerk en verlaagt je werklast.

Bekijk hier meer over AI Assist

AI Assist wordt op 5 november 2025 gelanceerd. Alle abonnees van Brightmine HR & Compliance Center krijgen dan toegang tot deze nieuwe tool. Nog geen abonnee, maar wel nieuwsgierig naar een betrouwbare AI Assist voor je team? Vraag hier een offerte op maat aan en kijk of Brightmine HR & Compliance Center iets voor jullie is.