‘Productiviteitsboost’ consultants Deloitte met persoonlijke chatbot
Deloitte waarschuwt z’n werknemers nu namelijk wel dat ze de output van de eigen generatieve AI (genAI) moeten controleren en valideren op accuraatheid en volledigheid. Het kan namelijk injuiste informatie opleveren over personen, plaatsen en feiten. Zulke missers van AI-bots worden wel ‘hallucinaties’ genoemd en zijn in de praktijk al meermaals voorgekomen. Soms zelfs met schadelijke gevolgen, zoals een Amerikaanse advocaat heeft ondervonden.
Behoedzaam mee omgaan
Individuele eindgebruikers van Deloitte’s AI-chatbot moeten dus zelf aan ‘due diligence’ doen voor wat zij van die kunstmatige intelligentie krijgen voor hun werktaken. Dit voorbehoud wordt door The Financial Times gemeld op basis van ingewijde bronnen. Werknemers moeten hoe dan ook behoedzaam omgaan met AI-tools.
Deloittes brede uitrol van de eigen genAI, die de naam PairD heeft, volgt op een eerdere proef. De interne AI-tool is in oktober gelanceerd in het Verenigd Koninkrijk. In tegenstelling tot veel inzet van genAI-mogelijkheden door diverse bedrijven, waaronder ook concurrenten van Deloitte, betreft het hier niet een samenwerking met een van de grote spelers op het gebied van genAI.
Zelfontwikkeld
De accounting- en consultancyfirma heeft niet aangeklopt bij ChatGPT-maker OpenAI, of bij Google of bij de juridisch gerichte AI-maker Harvey. PairD is een Deloitte-eigen ontwikkeling: gemaakt door het AI-instituut van het bedrijf. Deloitte stelt PairD compleet met personeelstraining voor gebruik van die AI-tool ter beschikking aan Scope, een Engels en Welshe goededoelenorganisatie voor gelijke rechten voor mensen met een beperking.
Dit artikel verscheen eerder bij AG Connect, Sijthoff Media