
AI en emotieherkenning: ‘Kan ons sociale verkeer ontregelen’
Stel, nieuwe AI-technologie slaagt erin om menselijke emoties foutloos te lezen. Wat doet dat met ons als mens? Met die vraag houdt promovenda Alexandra Prégent zich bezig.
‘Het gebruik van emotierecognitie neemt in allerlei sectoren toe’, vertelt Prégent. ‘De gezondheidszorg, security, grensbewaking, hr, detailhandel: ze vinden het allemaal aantrekkelijk om de emoties van mensen te achterhalen, herkennen en analyseren, omdat ze ervan uitgaan dat ze daar betekenisvolle conclusies aan kunnen verbinden. Voor een hr-afdeling is het aanlokkelijk om te weten wat voor persoonlijkheid je hebt en hoe betrouwbaar je bent, terwijl een beveilingsbedrijf misschien een systeem wil dat alarm slaat voordat iemand agressief wordt.’
De huidige technologie is nog niet tot dit soort bevindingen in staat. In haar onderzoek gaat Prégent er echter van uit dat dit binnenkort wel het geval zal zijn. ‘Ik denk dat het belangrijk is om de ethische risico’s van dergelijke technologie te voorspellen en in te schatten wat het effect daarvan is op de maatschappij’, zegt ze. ‘De meeste wetenschappelijke studies over emotionele expressies komen uit de sociale psychologie, en het vermogen van emotieherkenningssystemen om daaruit betrouwbare conclusies te trekken, is gebaseerd op onderzoek op het gebied van affectieve informatica. Samen bepalen hun bevindingen hoe we deze systemen momenteel inzetten en wat we realistisch gezien kunnen verwachten dat technologie er in de nabije toekomst mee zal doen. Maar als het gaat om de vraag of dergelijke capaciteiten wenselijk zijn en welke risico's eraan verbonden zijn, is de inbreng van filosofen nodig.
Wie is de autoriteit?
Een belangrijk punt voor Prégent is de vrije keuze van mensen om hun emoties voor zichzelf te houden of juist te laten zien. ‘In de huidige situatie ben jij de autoriteit op het gebied van je emoties. Wanneer jij zegt dat je pijn hebt, moet een arts dat onderzoeken, ook als de pijn niet blijkt uit de tests.’ Hetzelfde geldt in bijvoorbeeld de rechtsspraak. ‘Als jij overtuigend laat zien dat je spijt hebt, zal een rechter daarop vertrouwen.’
Dat verandert als techniek ‘verborgen’ emoties leert herkennen. Prégent: ‘Je krijgt dan een andere autoriteit dan jijzelf die beslist wat jouw diepste emoties zijn.’ Dat heeft ook gevolgen voor het sociale verkeer. ‘Emotionele expressie heeft verschillende functies in de maatschappij. Je kunt bijvoorbeeld bewust naar iemand glimlachen om te laten zien dat je diegene waardeert. Wanneer we met techniek alleen gaan focussen op (incidentele) diepe emoties, verstoren we de manier waarop we ons dagelijks leven in sociaal opzicht reguleren. Als iemand nu zegt dat diegene van je houdt, vertrouwen we daar in het algemeen op. Dat vertrouwen kan verdwijnen door de inzet van techniek.’
Chilling effect
Dan is er ook nog het ‘chilling effect’. ‘Foucault heeft op briljante wijze uitgelegd hoe het idee van constante bewaking, zelfs zonder het gebruik van technologie, structurele veranderingen in het gedrag van individuen teweegbrengt. Dit ‘afschrikkende effect’ wordt ook in verband gebracht met constante bewaking door camera's en microfoons. Omdat dit steeds vaker voorkomt, wordt wel gesteld dat volgende generaties hier steeds minder last van hebben, dat we eraan gewend raken. Zelf vind ik het eng dat je bijvoorbeeld in een collegezaal niet rustig een mening kunt vormen, zonder zeker te weten dat je niet wordt opgenomen.’
Blijf kijken naar de risico’s
Toch ziet ook Prégent voordelen aan de nieuwe technieken. ‘Het is mooi dat bijvoorbeeld parkinson en alzheimer beter herkend kan worden en ook voor mensen met autisme lijkt deze techniek mogelijkheden te bieden. Zij zouden het vaak lastig vinden om emoties te herkennen. Iets als een bril met emotietechniek zou hen in dat opzicht kunnen helpen. Van dat soort technieken kun je concluderen dat ze een positieve rol kunnen spelen in de samenleving, maar zelf focus ik liever op de risico’s. De techbedrijven zelf benadrukken de voordelen al genoeg.’