Rathenau Instituut waarschuwt organisaties en overheid voor risico’s generatieve AI: “EU-regels onvoldoende”
Het adviseert beleidsmakers en politici om nationaal en Europees beleid door te lichten en aan te scherpen, en met de AI-verordening de mogelijkheid te creëren om risicovolle generatieve AI-systemen van de markt te halen. De bedrijven die toepassingen voor generatieve AI ontwikkelen, lijken het adagium ‘move fast and break things’ te volgen, concludeert Rathenau.
“Ze introduceren toepassingen in de samenleving en zien vervolgens wel wat er precies mee gebeurt. Dit is riskant.”
“Ze introduceren toepassingen in de samenleving en zien vervolgens wel wat er precies mee gebeurt. Dit is riskant. Zonder mitigerend beleid kunnen de schadelijke effecten van GAI-toepassingen de overhand nemen.”
Organisaties, bedrijven en burgers moeten zich afvragen of ze generatieve AI verantwoord kunnen gebruiken. Er kleven veel risico’s aan, zoals discriminatie en onveiligheid. Ook staan we voor grote vragen met betrekking tot intellectueel eigendom en menselijke ontwikkeling. Er is een maatschappelijk debat nodig over de wenselijkheid van generatieve AI-systemen zoals ChatGPT, Bard en DALL-E, stelt Rathenau Instituut.
Iedere burger en organisatie staat voor de vraag of zij de technologie op dit moment verantwoord kunnen gebruiken
De invloed van enkele grote technologiebedrijven was al groot in maatschappelijke domeinen als de zorg of het onderwijs, maar breidt zich ondertussen verder uit naar de wetenschap. Generatieve AI gaat de gehele samenleving raken en daarmee ook tal van publieke waarden. Het gaat druk zetten op democratische processen zoals de toegang tot kennis, de nieuwsvoorziening en het publieke debat, en wordt het nog lastiger om democratische zeggenschap te krijgen.
“Politici en beleidsmakers moeten nu aan de slag om de risico’s van generatieve AI tegen te gaan, maar het kost tijd voordat beleid effect zal hebben”, aldus Linda Kool, themacoördinator bij Rathenau Instituut. “Tot die tijd staat iedere burger en organisatie voor de vraag of zij de technologie op dit moment verantwoord kunnen gebruiken.”
Vijf handelingsopties voor het nieuwe kabinet
Het Rathenau Instituut geeft het kabinet vijf handelingsopties mee om haar strategie vorm te geven:
1. Zorg voor een rem op de toepassing en uitrol van GAI-producten. Creëer het vermogen om schadelijke generatieve AI-toepassingen van de markt te halen
- Abstracte normen uit de AI-verordening moeten concreet gemaakt worden. Betrek de politiek en de samenleving hierbij
- Monitor of aanvullende eisen nodig zijn, zoals voorafgaande consultatie, vergunningen of bepaalde verboden
2. Zorg voor toekomstbestendige juridische kaders
- Evalueer juridische kaders op het gebied van dataprotectie, discriminatie, veiligheid, deepfakes, auteursrecht en mededinging
- Zorg voor actieve handhaving van bestaande kaders en zorg dat toezichthouders daar de middelen voor hebben
3. Investeer in internationaal AI-beleid, om mondiale innovatieprocessen van technologiebedrijven bij te sturen
- Kom op korte termijn tot vrijwillige afspraken met niet-Europese landen over maatschappelijk verantwoorde ontwikkeling en toepassingen van generatieve AI
- Blijf investeren in bindende internationale afspraken en betrek hier bij de OESO-richtlijnen voor maatschappelijk verantwoord ondernemen
4. Stel een ambitieuze agenda op voor maatschappelijk verantwoorde generatieve AI
- Investeer in alternatieve technologie om democratische sturing op generatieve AI te vergroten
- Monitor en begeleid de ontwikkeling van generatieve AI per sector
5. Stimuleer maatschappelijk debat over de wenselijkheid van generatieve AI
- Versterk technologisch burgerschap
- Ondersteun maatschappelijke normontwikkeling
De publicatie is ontwikkeld op verzoek van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties. Het onderzoek is gebaseerd op literatuurstudie, werksessies en interviews met deskundigen.