Wat zakelijke leiders kunnen doen om extreme AI-risico’s te beperken: negen gevaren en de maatregelen om deze tegen te gaan

Nu het er steeds op lijkt dat kunstmatige intelligentie (AI) extreme risico's voor de mensheid kan opleveren, moeten leiders in het bedrijfsleven zich inzetten om de gevaren te beperken. Dat schrijven Michael Watkins (IMD) en Ralf Weissbeck (Adecco).

In het artikel ‘Model Evaluation for Extreme Risks’ (eind mei 2023) identificeren vooraanstaande onderzoekers van Google DeepMind, OpenAI en non-profitorganisaties die zich richten op technologiebeleid negen ‘extreme AI-risico’s’. Volgens hen kan kunstmatige intelligentie er mogelijk zelfs toe leiden dat de mensheid uitsterft.

Leiders in het bedrijfsleven zouden zich moeten inspannen om deze extreme risico’s tegen te gaan, schrijven Michael D. Watkins (Hoogleraar Leiderschap en Organisatieverandering IMD) en Ralf Weissbeck (Voormalig Group Chief Information Officer en lid van het Executive Committee van de de Adecco Group) in een artikel op de site van business school IMD.

De negen extreme AI-risico’s

Extreme AI-risico’s zijn volgens het artikel uit mei ‘risico’s met een extreem grote materiële impact (denk aan tienduizenden doden of honderden miljarden dollars aan economische of milieuschade) of een grote verstoring van de sociale en politieke orde (denk aan een oorlog tussen landen, een aanzienlijke erosie in de kwaliteit van het openbare discours of wijdverbreid machtsverlies van bevolkingsgroepen, regeringen en andere door mensen geleide organisaties).

De onderzoekers onderscheiden negen van dergelijke risico’s:

  1. Onbedoelde schade: AI-modellen veroorzaken onbedoeld schade aan mensen, dieren of het milieu door fouten, bugs of onvoorziene situaties.
  2. Onbedoelde gevolgen: AI-modellen leiden tot ongewenste of schadelijke gevolgen voor individuen of groepen door hun ontwerp, doelstellingen ofprikkels.
  3. Misbruik: AI-modellen worden opzettelijk gebruikt voor kwaadaardige doeleinden, zoals cyberaanvallen, misleiding, manipulatie of sabotage.
  4. Ongelijke verdeling: AI-modellen creëren of verergeren ongelijkheden tussen individuen, groepen of landen door hun toegang, impact of governance.
  5. Verlies van autonomie: AI-modellen verminderen of ondermijnen de autonomie van individuen of groepen door hun besluitvorming, gedrag of voorkeuren te beïnvloeden of te controleren.
  6. Verlies van vertrouwen: AI-modellen schaden het vertrouwen tussen individuen, groepen of instellingen door hun transparantie, verantwoording of betrouwbaarheid te verminderen.
  7. Verlies van betekenis: AI-modellen tasten de betekenis of het doel van individuen of groepen aan door hun identiteit, waarden of cultuur te veranderen of te bedreigen.
  8. Verlies van menselijkheid: AI-modellen vervangen of overtreffen mensen op belangrijke gebieden van menselijke activiteit, zoals werk, kunst of relaties.
  9. Uitroeiing: AI-modellen vormen een existentiële bedreiging voor de mensheid door hun intelligentie, macht of doelen.

Maatregelen om risico’s te beperken

Watkins en Weissbeck roepen leiders in het bedrijfsleven op om maatregelen te nemen om de extreme risico’s die AI oplevert tegen te gaan.

Zij adviseren zakelijke leiders om steun te verlenen aan de inspanningen van overheden en academische instellingen om extreme AI-risico’s te beperken, om aanbieders van AI-modellen en AI-diensten zorgvuldig te screenen en controleren en om interne strategieën en controles te implementeren om de ontwikkeling van AI in het eigen bedrijf in goede banen te leiden.

Wat dit laatste betreft: het is volgens Watkins en Weissbeck om te beginnen met een AI-ethiekbeleid dat de inzet van het bedrijf voor verantwoord gebruik van AI schetst. Dit beleid moet richtlijnen bieden voor AI-ontwikkeling en -gebruik, waarbij kwesties als transparantie, eerlijkheid, privacy en veiligheid worden aangepakt.

Controle, tools en training

Bovendien moeten bedrijven controles implementeren gedurende het hele AI-ontwikkelingsproces, waaronder risicobeoordelingen, test- en validatieprocedures en toezichtmechanismen. Deze controles kunnen helpen voorkomen dat er risicovolle AI-systemen worden gecreëerd en ervoor zorgen dat eventuele risico’s snel worden geïdentificeerd en aangepakt.

Tot slot moeten bedrijven hun werknemers uitrusten met de tools en training om veilig met AI te werken. Dit kan technische training over AI-ontwikkeling, onderwijs over AI-ethiek en tools om AI-systemen te monitoren en te beheren omvatten. Door te investeren in hun werknemers, kunnen bedrijven een cultuur van AI-veiligheid en -verantwoordelijkheid creëren, waarbij iedereen zijn rol speelt bij het verminderen van AI-risico’s.

Stel je voor dat je met één klik complexe HR-vragen kunt beantwoorden. Dit alles is mogelijk met de kracht van kunstmatige intelligentie (AI) en chatbots zoals ChatGPT! Volg deze masterclass en leer hoe AI en ChatGPT als personal assistant jouw dagelijkse werkzaamheden kan transformeren in alle belangrijke HR-domeinen.