Universiteit Leiden

nl en

eLaw bij de Lawtomation-dagen van IE University

Op 29 september 2023 namen Carlotta Rigotti en Eduard Fosch-Villaronga deel aan de Lawtomation Days van IE University. Ze presenteerden de voorlopige onderzoeksresultaten van desktop research en empirisch onderzoek naar de eerlijkheid van AI-toepassingen op de arbeidsmarkt, dat werd uitgevoerd voor het Horizon Europe BIAS-project.

Door het combineren van een verkennend literatuuronderzoek met kwalitatief onderzoek op het gebied van genderstudies, arbeidswetenschappen, rechten en computerwetenschappen, analyseerden Carlotta en Eduard kritisch de huidige stand van zaken wat betreft de eerlijkheid van AI-toepassingen op de arbeidsmarkt. Dit werk maakte deel uit van het Horizon Europe BIAS-project. Bijzonder belangrijk was het onderzoeken van procedurele eerlijkheid en het slaan van een brug tussen juridische, ethische en sociale vereisten en technologische methodologieën.

Deze interdisciplinaire benadering heeft nieuwe inzichten opgeleverd  voor het creëren van een harmonieuze relatie tussen de wet en alternatieve maatregelen bij het definiëren en ontwerpen van betrouwbare AI-systemen, zoals de Debiaser, namelijk innovatieve technologie gericht op het identificeren en verminderen van diversiteitsbias van AI-toepassingen op de arbeidsmarkt die het BIAS Consortium als eindresultaat van de uitvoering van het project wil ontwerpen.

Carlotta Rigotti en Eduard Fosch-Villaronga

Jouw stem telt!

We nodigen je graag uit om onze enquête in te vullen over discriminatie, uitsluiting en marginalisering van werknemers die het gebruik van toepassingen van kunstmatige intelligentie (AI) op de arbeidsmarkt soms kan veroorzaken.

Word lid van onze community!

Als je nauwer betrokken wilt zijn bij het BIAS-project, sluit je dan aan bij onze nationale pool van belanghebbenden door op deze link te klikken.  

Dit project is gefinancierd door het Horizon Europe programma van de Europese Unie in het kader van de open oproep HORIZON-CL4-2021-HUMAN-01-24- Tackling gender, race and other biases in AI (RIA) (subsidieovereenkomst nr. 101070468).

Deze website maakt gebruik van cookies.  Meer informatie.