Universiteit Leiden

nl en

Luistert AI straks mee bij jouw sollicitatie? Over recht, techniek en privacy

Om de bescherming van onze persoonsgegevens en onze privacy te kunnen waarborgen, moeten het recht en toepassingen van Artificial Intelligence beter op elkaar worden afgestemd. Promovendus Andreas Häuselmann ziet kansen, maar ook gevaren als dat niet gebeurt.

Stel, je solliciteert bij een bedrijf en wordt afgewezen, omdat je de baan niet graag genoeg zou willen. Wat blijkt later: een Artificial Intelligence (AI)-applicatie die emoties kan lezen, heeft aangegeven dat er geen enthousiasme zat in je stemgeluid. Of je krijgt geen hypotheek omdat AI jouw kredietwaardigheid laag inschat door hoe vaak en wanneer je je telefoon oplaadt

Persoonsgegevens beschermen

Het zijn voorbeelden van een toekomst die Häuselmann schetst als het recht niet beter inspeelt op de razendsnelle ontwikkelingen van AI. ChatGPT, persoonlijke suggesties op Netflix en een digitale assistent als Siri of Alexa: een wereld zonder AI is al niet meer denkbaar. Maar hoe zorgen we ervoor dat persoonsgegevens, waaronder data over onze gezondheidstoestand, gedachten en emoties, effectief worden beschermd?

Heel simpel gezegd: we moeten regelgeving beter laten aansluiten op de praktijk van AI-ontwikkelingen. Kijk bijvoorbeeld naar het ‘beginsel van juistheid’, dat verankerd is in onze Europese wetgeving. Op basis daarvan moeten persoonsgegevens juist en actueel zijn. Als een bedrijf jouw naam verkeerd spelt, dan is dat in strijd met dat beginsel en moet het bedrijf jouw naam aanpassen (recht op rectificatie), vertelt Häuselmann. 

'Maar wat als AI voorspellingen doet over jouw leven: voor welke carrière ben je geschikt? Hoe oud zal je worden?'

‘Maar wat als AI voorspellingen doet over jouw leven: voor welke carrière ben je geschikt? Hoe oud zal je worden? Zal je gezond blijven en hoeveel geld ga je in de toekmost verdienen? In dat geval kún je niet aantonen dat de persoonsgegevens niet kloppen, als je gebruik wil maken van jouw recht op rectificatie. Ik stel voor dat we in dit geval de bewijslast omdraaien. Niet jij, maar de organisatie die jouw data gebruikte, moet dan aantonen dat de gegenereerde informatie klopt.’

AI-bedrijven willen duidelijkheid

Tegelijkertijd moet de wetgever, in dit geval de EU, volgens Häuselmann ook kijken naar een ander uitgangspunt, het beginsel van behoorlijkheid. Daarbij gaat het erom dat het gebruik van persoonsgegevens geen nadelige, discriminerende, onverwachte gevolgen mag hebben, bijvoorbeeld voor consumenten. Dat beginsel is nu heel vaag, terwijl techbedrijven die werken met AI, veel baat zouden hebben bij duidelijkheid. Nog belangrijker is dat een beter onderbouwd behoorlijkheidsbeginsel individuen effectief zou beschermen tegen de risico's van AI.

'We moeten toe naar duidelijke wetgeving, die nog steeds flexibel genoeg is om in te spelen op de snelle ontwikkelingen binnen AI.'

‘De wet zou hier meer de taal van AI moeten spreken, zodat bedrijven ermee uit de voeten kunnen.’ Häuselmann, die werkt bij het internationale advocatenkantoor De Brauw, ziet dat techbedrijven zoeken naar hoe ze hun AI-toepassingen ook voor de wet toekomstbestendig kunnen maken. ‘We moeten toe naar duidelijke wetgeving, die nog steeds flexibel genoeg is om in te spelen op de snelle ontwikkelingen binnen AI.’
 

Neuralink

Hoewel er risico’s zijn voor de bescherming van onze persoonsgegevens, moet de wet de ontwikkeling van AI niet blokkeren, vindt de promovendus. De techniek kan bijvoorbeeld in de gezondheidszorg van grote toegevoegde waarde zijn. ‘Kijk naar Neuralink, de geïmplanteerde chip die mensen met een verlamming een computer kan laten besturen. Techniek is op zichzelf niet per definitie goed, slecht. De wet zou moeten kijken naar het gebruik ervan en de intenties die daarachter zitten.’

Twee werelden

Terugkijkend op zijn eigen onderzoek is Häuselmann vooral trots op hoe hij de taal van twee grotendeels gescheiden werelden leerde. ‘Ik ben een jurist, maar ik heb ook een tutorial geven aan MIT [red. een technische universiteit in Amerika]. Ik had verwacht dat de technici daar sceptisch zouden reageren op mijn kritische blik op AI, maar het tegendeel bleek waar. Het is belangrijk dat die twee werelden elkaar blijven opzoeken voor toekomstig onderzoek.’

Andreas Häuselmann promoveert op 23 april.

Tekst: Tim Senden
Beeld: Unsplash.com/bruce mars

Deze website maakt gebruik van cookies.  Meer informatie.