Universiteit Leiden

nl en

Vriend of vijand? AI en het tegengaan van vooroordelen in HR-processen

AI wordt veel gebruikt in HR-processen, maar we weten nog weinig over de bijdrage van deze applicaties aan eerlijke en inclusieve beslissingen. Leids onderzoeker Carlotta Rigotti is betrokken bij BIAS, een groot consortiumonderzoeksproject om de rol van AI te verduidelijken én een nieuwe app voor HR-professionals te ontwikkelen.

Carlotta Rigotti: 'We gaan een nieuwe HR-toepassing maken die bij werving en selectie vooroordelen kan aanwijzen en tegengaan.'

Op welke schaal worden AI-systemen gebruikt in HR-processen, en welke taken voeren ze uit?

‘Ten eerste worden AI-applicaties binnen HR-processen veel vaker gebruikt dan je misschien denkt. Zo heeft iedereen een LinkedIn-account en LinkedIn maakt gebruik van AI. Veel HR-professionals gebruiken LinkedIn om geschikte kandidaten te zoeken voor vacatures. Verder gebruiken HR-medewerkers AI-applicaties bij het opstellen van vacatures om ervoor te zorgen dat ze genderneutrale, inclusieve termen bevatten. Uiteraard wordt AI ook gebruikt om de beste kandidaten voor vacatures te selecteren, en een AI-applicatie bespaart veel tijd door een groot aantal cv’s en begeleidende brieven te verwerken.

Tot slot wordt AI ingezet voor personeelsmanagement. Er wordt dan gekeken naar productiviteit, verlof, aantal gewerkte uren, etcetera. Maar dit is een riskante toepassing, omdat je dan via een app toezicht houdt of mogelijk discrimineert.’

Serie
Wat betekent AI voor... de publieke sector

Hoe denken HR-professionals over de huidige AI-applicaties?

‘Voor het BIAS project interviewden we 70 AI-ontwikkelaars en HR-managers, verspreid over heel Europa. Zij zijn vooral positief over het gebruik van AI als het gaat over werving- en selectieprocedures. Als het gaat over AI die managementbeslissingen neemt over promoties, bestraffende maatregelen of ontslag, zijn ze een stuk terughoudender.’

Wat is het doel van het BIAS-project?

‘Het uiteindelijke doel is het ontwikkelen van een nieuwe technologische toepassing die bij werving en selectie vooroordelen kan aanwijzen en tegengaan, vooral op gebied van gender en ras, door informatie te markeren of te verwijderen. De toepassing zal je misschien ook kunnen adviseren bij het voorkomen van vooroordelen. Specifieke functies van de app gaan we bepalen tijdens co-creatie workshops die we in Europa houden in augustus en september 2023.

Maar eerst gaat het consortium onderzoeken wat je kunt verstaan onder een eerlijk wervingsproces. En dat is het stuk waaraan projectleider Eduard Fosch Villaronga en ik namens de Universiteit Leiden een bijdrage leveren. Wij hebben onderzocht hoe wetenschappers uit diverse disciplines de term onderzoeken. Zo hebben we contact gehad met organisatiepsychologen in Tilburg en Amsterdam. Daarnaast hebben we nu een vragenlijst gepubliceerd waarin we medewerkers en andere experts vragen naar hun ervaringen over HR-toepassingen die op AI zijn gebaseerd.’

Wat zou het verschil kunnen zijn tussen de AI-toepassing van BIAS en de producten die nu al op de markt zijn?

‘Een van de belangrijkste aspecten is dat bij de bouw de toepassing gebruik wordt gemaakt van taalmodellen waarin vooroordelen zijn weggehaald, met specifieke aandacht voor taalgebruik en vooroordelen in een werkcontext. Bovendien zullen ‘explainable AI’-componenten gebruikers helpen bij het juist interpreteren van de resultaten die de toepassing laat zien, aangevuld met een uitleg van de manier waarop de toepassing beslissingen heeft genomen. De toepassing zal worden ontwikkeld door de Universiteit van Toegepaste Wetenschappen in Bern en de Technische Universiteit in Noorwegen.’

Help mee met het maken van AI-systemen zonder vooroordelen en doe mee aan de BIAS-vragenlijst

Het BIAS-project wil zoveel mogelijk informatie verzamelen over ervaringen van werknemers met AI-toepassingen op de arbeidsmarkt ‘We hebben meer respondenten nodig’, vertelt Carlotta Rigotti, ‘we moeten er minstens 4000 nodig, verspreid over Europa. Ik wil benadrukken dat ieders mening echt belangrijk is, en ik hoop dat mensen 10 minuten de tijd willen nemen om de vragenlijst in te vullen.’

Vul de vragenlijst in via deze link

Je bent advocaat, hoe pas je jouw vakkennis toe in dit project?

‘Mijn expertise ligt op de wisselwerking tussen rechten, gender en technologie. Binnen dit project onderzoek ik hoe diversiteit kan en moet worden meegenomen in de ontwikkeling van de nieuwe toepassing. Ook kijk ik naar de invloed van wetgeving op de ontwikkeling van de toepassing. Omdat ik advocaat ben, kan ik juridische lacunes identificeren. Bijvoorbeeld: anti-discriminatiewetten en wetten voor databescherming vormen op zichzelf geen passend antwoord op vooroordelen op gebied van diversiteit. Maar eerst richten we ons vooral op het empirische werk. In een later stadium gaan we er uiteraard voor zorgen dat de nieuwe technologie voldoet aan alle toepasbare wetgeving. We moeten daarbij bijvoorbeeld rekening houden met de juridische onrust die momenteel binnen de Europese Unie heerst over dit onderwerp.’

Wat is je persoonlijke mening over de kant die het nu uitgaat met betrekking tot ontwikkeling van AI-toepassingen voor de HR-sector?

‘Ik ben blij dat HR-professionals zich bewust zijn van de risico’s die gebruik van AI met zich meebrengt. Het gaat de goede kant op, want de noodzaak voor diversiteit en inclusie wordt breed gedragen. Wel zou het nog een enorme positieve impuls zijn als meer vrouwen en meer diverse AI-ontwikkelaars zich bezighouden met de ontwikkeling van toepassingen.’

Tekst: Jan Joost Aten

De afbeelding bovenaan dit artikel is gemaakt met Dall-E, een kunstmatig intelligentieprogramma dat beelden creëert uit tekstuele beschrijvingen. Gebruikte term:'employees working in the human resource department data bias'.

Over SAILS

Het Leiden University SAILS (Society Artificial Intelligence and Life Sciences)-initiatief is een universiteitsbreed netwerk van AI-onderzoekers, afkomstig uit alle zeven faculteiten: Rechtsgeleerdheid, Wis- en Natuurkunde, Archeologie, Sociale Wetenschappen, Geesteswetenschappen, Governance and Global Affairs en het Leids Universitair Medisch Centrum.

We bekijken AI vanuit menselijk perspectief. Ons onderzoek richt zich op rechtvaardig gebruik van AI in en voor de maatschappij. We willen onze kennis over AI, en de gunstige toepassingen van AI voor de maatschappij, vergroten. Zo kunnen we de samenleving helpen bij de uitdagingen van nu. We zijn ervan overtuigd dat dit doel alleen bereikt kan worden door wetenschappelijke talenten en inzichten uit alle disciplines bijeen te brengen, kennis te delen, anderen tijdens evenementen te inspireren en onze studenten op te leiden tot de AI-professionals van de toekomst. Want de Universiteit Leiden gelooft dat de mens de toekomst is van AI.

Deze website maakt gebruik van cookies.  Meer informatie.