'We willen op een verantwoorde en proactieve manier experimenteren met AI’
Binnen de Faculteit Governance and Global Affairs (FGGA) wordt hard gewerkt aan een toekomstbestendige aanpak voor kunstmatige intelligentie. Met het FGGAi programma en de introductie van de nieuwe tool LUChat zet de faculteit een belangrijke stap richting veilig, verantwoord en innovatief gebruik van AI. We spraken Cameron Hope over wat er op komst is en waarom dit zo’n belangrijke ontwikkeling is.
Wat houdt FGGAi precies in?
'FGGAi is het programma dat alle beleidsvorming, training en tooling rondom AI binnen onze faculteit samenbrengt. FGGA heeft ervoor gekozen om binnen de universiteit voorop te lopen. Dat betekent dat we medewerkers zoveel mogelijk ruimte willen geven om veilig met deze technologie te experimenteren.
Tot nu toe was vooral de tooling een belemmering. Vorig jaar introduceerden we een kader dat verduidelijkte wat juridisch toegestaan is. Dat was al ruimer dan het algemene universiteitsbeleid, maar in de praktijk viel veel van ons werk nog steeds in de rode, verboden categorie. Daardoor konden we minder ervaring opdoen dan we hadden gewild.
De focus ligt nu op het creëren van een veilige, private en betaalbare manier om AI te gebruiken. Dat wordt binnenkort mogelijk met de introductie van LUChat.'
Wat is het verschil tussen FGGAi en LUChat?
'LUChat is een tool: een veilige, private versie van ChatGPT. Het draait op stateless servers binnen de EU, in onze eigen private cloud. Daardoor kunnen gebruikers volledig privé werken met large language models. Het model is ontwikkeld door OpenAI, maar er is geen enkele verbinding met OpenAI. Er wordt geen data gedeeld, opgeslagen of gebruikt voor training.
Maar een tool alleen is niet genoeg. Daarom is er FGGAi: het programma dat ook onboarding, training, AI vaardigheidsmodules en het beleidskader omvat.'
Waarom neemt FGGA het voortouw hierin?
‘Voor nu speelt dit werk vooral binnen FGGA, al denk ik dat de hele universiteit hiervan zou kunnen profiteren. We hebben een sterke innovatiesamenwerking met het ISSC, waardoor FGGA als eerste toegang krijgt tot nieuwe functionaliteiten. Dat sluit goed aan bij onze keuze om het voortouw te nemen.
AI brengt zowel kansen als uitdagingen met zich mee, en we kunnen daar alleen optimaal gebruik van maken als we daadwerkelijk ervaring opdoen. We weten dat het gebruik van shadow AI binnen de universiteit wijdverbreid is en dat de behoefte aan veilige alternatieven duidelijk aanwezig is. In november vorig jaar werden er wekelijks ongeveer 600.000 berichten verstuurd naar generatieve AI‑platforms zoals ChatGPT vanuit de universiteit. In februari 2026 waren dat er meer dan 1.000.000. Dat betekent één miljoen potentiële datalekken, één miljoen mogelijke aantastingen van onze academische onafhankelijkheid, elke week. De vraag naar deze tools is dus enorm, maar er zijn serieuze zorgen over veiligheid en privacy. We hebben een tool nodig die technisch net zo sterk is als deze platforms, maar wél veilig en betrouwbaar.
Veel collega’s zien dat AI de kwaliteit of efficiëntie van hun werk kan verbeteren. Daarom willen we actief onderzoeken wat er mogelijk is.
AI speelt bovendien een prominente rol in onze nieuwe meerjarenstrategie. We streven naar een evenwichtige aanpak: enerzijds willen we tools zoals LUChat zo vroeg mogelijk beschikbaar maken, maar anderzijds ligt de kern bij het echt ontwikkelen van AI‑vaardigheden binnen FGGA.’
Waarom is het belangrijk om hier zorgvuldig mee om te gaan?
‘Het begrijpen van de technologie achter deze tools is cruciaal. Generatieve AI dwingt universiteiten om moeilijke vragen te stellen over hoe, wat en waarom we doen wat we doen. Tegelijkertijd werken we met data waarvoor we verantwoordelijkheid dragen. Het is daarom belangrijk om de afwegingen, risico’s en kosten van deze technologie goed te begrijpen.
Een van de grootste uitdagingen is de snelheid waarmee AI wordt omarmd. De telefoon deed er vijftig jaar over om breed geaccepteerd te raken, elektriciteit zelfs honderd. De smartphone werd binnen tien jaar gemeengoed, maar generatieve AI is binnen één à twee jaar na de publieke introductie al massaal in gebruik genomen. Bij generatieve AI hangt het nut volledig af van de context, en de impact varieert van kleine efficiëntiewinsten tot het fundamenteel heroverwegen van hoe we het succes van studenten meten.
Negeer je het, dan loop je achter. Maar dat betekent niet dat we ons er blindelings in moeten storten. We willen een middenweg creëren: verantwoord en proactief experimenteren. Dat vraagt om beleid, technologie en training.’
Wat kunnen medewerkers de komende periode verwachten?
'We werken achter de schermen met een groep pioniers die LUChat testen en feedback geven aan de ontwikkelaars. Ik verwacht dat een stabiele versie van de tool voor de zomer beschikbaar komt voor alle medewerkers.
Daarnaast komen er trainingsmodules en een update van ons beleid.'
Waar kunnen mensen terecht met vragen?
'Je kunt altijd contact met mij opnemen via mijn mailadres: c.a.hope@fgga.leidenuniv.nl. Daarnaast is er een korte FAQ beschikbaar: LUChatFAQ.aspx.'