Universiteit Leiden

nl en

Twee AI-onderzoekssubsidies voor Universiteit Leiden

NWO heeft meer dan 10 miljoen euro toegekend voor mensgericht AI onderzoek in ELSA Labs (elk 2.1M€). Universiteit Leiden participeert in twee van deze vijf onderzoeksprogramma’s.

ELSA staat voor Ethical, Legal and Societal Aspects. Deze aspecten spelen een belangrijke rol spelen in de ontwikkeling van kunstmatige intelligentie (artificial intelligence, AI). Rekening houden met ELSA in het ontwerp van AI zorgt ervoor dat toekomstige AI en AI-toepassingen betrouwbaar, ethisch, gebruikersvriendelijke, veilig, legitiem en maatschappelijk geaccepteerd zijn.

In de ELSA-labs werken onderzoekers van kennisinstellingen en publieke en private organisaties samen en dragen ze bij aan kennis over het ontwikkelen en toepassen van betrouwbare, mensgerichte AI. De projecten hebben een looptijd van vijf jaar en starten in 2022.

Deze onderzoeksprojecten passen goed binnen SAILS, het universiteitsbrede interdisciplinaire onderzoeksprogramma over AI van de Universiteit Leiden. Het belangrijkste doel van het SAILS-programma is ervoor te zorgen dat de ontwikkeling van AI niet slechts een technologische exercitie is. Het ontwerpen en ontwikkelen van veilige en bruikbare AI vereist input vanuit verschillende disciplines, waaronder ethiek, recht, psychologie, taalkunde en bestuurskunde.

De twee toegekende projecten waarin de Universiteit Leiden participeert zijn:

  1. ELSA Lab Defence (coördinatie door TNO, participatie prof. Bart CusterseLaw)

    Artificiële Intelligentie (AI) speelt een cruciale rol binnen het Nederlandse ministerie van Defensie om vrede en veiligheid te bieden. Voorbeelden zijn het mogelijk maken van snelle verwerking van big data en intelligente, onbemande robots. De introductie van AI-technologie in defensie roept ook tal van ethische, juridische en maatschappelijke vragen op, waaronder hoe AI-systemen onder betekenisvolle menselijke controle kunnen worden gehouden, en hoe de menselijke maat te behouden bij het geven van autonomie aan machines. Het ELSA Lab Defensie adresseert deze vraag door een toekomstbestendig, onafhankelijk en consultatief ecosysteem te ontwikkelen voor verantwoord gebruik van AI in defensie.
     
  2. AI for Multi-Agency Public Safety Issues (AI-MAPS, coördinatie door Erasmus Universiteit Rotterdam, participatie dr. Francien Dechesne en prof. Valerie FrisseneLaw)

    Openbare veiligheid is van vitaal belang voor het functioneren van samenlevingen: zonder veiligheid is er geen vrijheid, geen geluk en geen welvaart. Veiligheid is voor ons belangrijk en moet daarom door alle maatschappelijke partners gezamenlijk worden vormgegeven en in stand gehouden. Gegevens die door meerdere actoren worden gegenereerd, spelen een steeds belangrijkere rol bij de preventie, paraatheid en beperking van schade of rampen. De ontwikkeling van een ecosysteem van vertrouwen met betrekking tot AI-geassisteerde bevordering van de openbare veiligheid staat centraal in deze ELSA Lab-toepassing. In verschillende scenario's worden voordelen en waarborgen geanalyseerd tegen de achtergrond van een privaat-publiek-machine-agentschap.

Verdere informatie is beschikbaar op de website van NWO: lees hier het nieuwsbericht over de toekenning en hier de call van de NWO.

Deze website maakt gebruik van cookies.  Meer informatie.